BigScience推出5.6亿参数多语言语言模型
Qwen2-1.5B指令模型的GGUF格式压缩版本
轻量级多语言AI聊天模型 支持32K长文本处理
经过多任务指令微调的小型语言模型
基于LLaMA的开源多模态AI模型 支持图像理解与对话
大规模多语言模型支持32K上下文长度
开创性语言模型推动自然语言处理发展
基于The Pile数据集训练的60亿参数大规模语言模型
RobBERT:用于荷兰语自然语言处理的先进预训 练模型
DeBERTa模型利用解耦注意力机制提升自然语言理解能力
为越南语开发的高性能预训练语言模型
OpenAI开发的中型GPT-2语言模型用于多样化文本生成
RoBERTa大型模型微调的GPT-2文本检测工具
开源大模型提升对话推理与功能调用能力
高效开源语言模型家族及其完整训练框架
开源幻觉检测模型助力提升LLM输出质量
为科学文本优化的预训练BERT语言模型
基于T5架构的高性能孟加拉语文本改写模型
7B参数开源对话模型在多项基准测试中表现卓越
微软3.8B参数高性能自然语言模型
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号