DeBERTa V3架构多语言模型助力跨语言NLU任务
Microsoft 全栈语音处理预训练模型
全词掩码技术驱动的中文BERT预训练模型
CodeBERT为编程与自然语言处理提供强大支持
IndoBERT基于BERT架构的印尼语预训练模型
Google T5模型的改进版本 提升多种NLP任务性能
为科学文本优化的预训练BERT语言模型
字符级多语言自然语言处理模型
自监督语音表示学习模型HuBERT助力语音识别进步
LayoutLM模型融合文本布局图像信息提升文档AI效能
微软WavLM:全栈语音处理的自监督预训练模型
轻量级时间序列预测模型 基于T5架构设计
DistilBERT:轻量高效的BERT模型,保留核心性能
高效预训练语言模型提升自然语言理解任务性能
用于自然语言生成和理解的序列到序列预训练模型
大规模无大小写区分BERT自然语言处理预训练模型
大规模双向Transformer预训练英语语言模型
创新的自监督语言表示学习技术
轻量级预训练自然语言处理模型
Facebook开发的大规模多语言预训练语音模型
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号