自然语言处理

BERT多语言模型在引用识别任务上的高性能微调应用

神经稀疏编码模型优化文档检索效率

轻量级句子嵌入模型支持多种自然语言处理应用

多语言稀疏混合专家大规模语言模型

优化的俄语自然语言处理模型

为科学文本优化的预训练BERT语言模型

高效评估自然语言生成质量的深度学习模型

BERT微型模型:适用于资源受限环境的NLP解决方案

高性能开源自然语言处理框架

性能卓越的英语句子相似度计算模型

Meta推出多语言大规模语言模型 支持多种商业和研究场景

基于Llama 2架构的轻量级对话模型

信息论驱动的跨语言预训练模型

实现100种语言间9900种直接翻译的多语言模型

基于Transformers的精简Qwen2模型

基于RoBERTa的大规模句子嵌入模型

Meta开发的多语言大规模语言模型 适用于对话和检索任务

融合视觉与语言的开源多模态AI模型

RoBERTa模型用于医疗记录去标识化

跨编码器模型实现高效信息检索与段落排序
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号