
先进奖励模型展示小数据集训练的潜力

AraBERT:用于阿拉伯语理解的高性能预训练模型

小型数据集训练的高性能奖励模型实现卓越偏好处理

支持100+语言的多语言大规模指令型自然语言处理模型

针对Python优化的CodeBERT模型用于代码生成评估

Vision Transformer驱动的图像抠图模型

基于掩码语言模型的编程和自然语言预训练模型

InstructBLIP:指令微调的通用视觉语言模型

突破性阿尔及利亚方言自然语言处理工具

单目度量深度估计模型 支持多样化场景

AI驱动的动漫风格插画生成工具 支持商用创作

BERT大规模预训练模型助力巴西葡萄牙语NLP任务

日语BERT预训练模型:全词掩码和大规模语料库训练

多语言语音识别与转录的高效开源解决方案

Canny边缘检测增强Stable Diffusion的图像生成控制能力

27亿参数小型语言模型 展现卓越性能

DINO训练的ViT模型在图像识别中的应用

BERT微调模型实现精准文本情感分析

Llama 2 7B的GPTQ量化版本 支持多种参数选项

Unsloth技术实现高效低资源的Llama 3.1模型微调