自然语言处理

多任务训练的自然语言处理模型

跨语言生物医学实体表示学习框架

轻量级BERT模型为下游NLP任务提供高效解决方案

基于The Pile数据集训练的60亿参数大规模语言模型

BART微调模型实现多领域关键短语自动提取

轻量级Phi3因果语言模型实现

Google推出的轻量级开源大语言模型

巴西金融市场智能文本情感分析的先进模型

ESM-2系列最小规模蛋白质序列预训练模型

RoBERTa-large模型在OntoNotes 5数据集上的高性能命名实体识别微调版本

低内存高效的视觉语言模型

RobBERT:用于荷兰语自然语言处理的先进预训练模型

已弃用的多语言句子嵌入模型用于语义相似度任务

开源对话模型 强大性能与安全性兼备

基于T5架构的多语言文本生成模型

轻量级开源库实现217种语言的快速准确识别

Danswer项目的智能用户意图分类模型

DeBERTa模型利用解耦注意力机制提升自然语言理解能力

Google T5-v1_1-xl:优化的大规模预训练语言模型

多语言大规模语言模型支持32K上下文长度
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号