
DeBERTa V3架构多语言模型助力跨语言NLU任务

Microsoft 全栈语音处理预训练模型

全词掩码技术驱动的中文BERT预训练模型

CodeBERT为编程与自然语言处理提供强大支持

IndoBERT基于BERT架构的印尼语预训练模型

Google T5模型的改进版本 提升多种NLP任务性能

为科学文本优化的预训练BERT语言模型

字符级多语言自然语言处理模型

自监督语音表示学习模型HuBERT助力语音识别进步

LayoutLM模型融合文本布局图像信息提升文档AI效能

微软WavLM:全栈语音处理的自监督预训练模型

轻量级时间序列预测模型 基于T5架构设计

DistilBERT:轻量高效的BERT模型,保留核心性能

高效预训练语言模型提升自然语言理解任务性能

用于自然语言生成和理解的序列到序列预训练模型

大规模无大小写区分BERT自然语言处理预训练模型

大规模双向Transformer预训练英语语言模型

创新的自监督语言表示学习技术

轻量级预训练自然语言处理模型

Facebook开发的大规模多语言预训练语音模型
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号