自然语言处理
BERT多语言模型在引用识别任务上的高性能微调应用
神经稀疏编码模型优化文档检索效率
轻量级句子嵌入模型支持多种自然语言处理应用
多语言稀疏混合专家大规模语言模型
优化的俄语自然语言处理模型
为科学文本优化的预训练BERT语言模型
高效评估自然语言生成质量的深度学习模型
BERT微型模型:适用于资源受限环境的NLP解决方案
高性能开源自然语言处理框架
性能卓越的英语句子相似度计算模型
Meta推出多语言大规模语言模型 支持多种商业和研究场景
基于Llama 2架构的轻量级对话模型
信息论驱动的跨语言预训练模型
实现100种语言间9900种直接翻译的多语言模型
基于Transformers的精简Qwen2模型
基于RoBERTa的大规模句子嵌入模型
Meta开发的多语言大规模语言模型 适用于对话和检索任务
融合视觉与语言的开源多模态AI模型
RoBERTa模型用于医疗记录去标识化
跨编码器模型实现高效信息检索与段落排序
最新AI 工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号