自然语言处理
多任务训练的自然语言处理模型
跨语言生物医学实体表示学习框架
轻量级BERT模型为下游NLP任务提供高效解决方案
基于The Pile数据集训练的60亿参数大规模语言模型
BART微调模型实现多领域关键短语自动提取
轻量级Phi3因果语言模型实现
Google推出的轻量级开源大语言模型
巴西金融市场智能文本情感分析的先进模型
ESM-2系列最小规模蛋白质序列预训练模型
RoBERTa-large模型在OntoNotes 5数据集上的高性能命名实体识别微调版本
低内存高效的视觉语言模型
RobBERT:用于荷兰语自然语言处理的先进预训练模型
已弃用的多语言句子嵌入模型用于语义相似度任务
开源对话模型 强大性能与安全性兼备
基于T5架构的多语言文本生成模型
轻量级开源库实现217种语言的快速准确识别
Danswer项目的智能用户意图分类模型
DeBERTa模型利用解耦注意力机制提升自然语言理解能力
Google T5-v1_1-xl:优化的大规模预训练语言模型
多语言大规模语言模型支持32K上下文长度
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号