古文BERT模型 专为古文处理而设计助力文本解析
高效图像分类与特征提取模型 支持移动设备应用
中文自然语言处理的全词掩码预训练模型
改善网络安全任务的预训练语言模型
无需微调,实现高效图像分类的自监督视觉转换器
SQuAD数据集上T5模型的问答生成能力提升研究
基于大规模预训练的模型,提升英语语言任务表现
使用ImageNet数据集进行图像分类的Vision Transformer模型
提升对话任务表现的大规模预训练模型
LINE DistilBERT模型推动日语文本智能处理
ViT图像分类与特征提取模型
科学文献领域的预训练语言模型
面向代码生成与理解的大型语言模型
俄语Transformer模型SberDevices团队的训练与评估
Pytorch平台上的MNLI任务BERT预训练模型
广泛语言支持与长文本处理能力的先进预训练模型
高效低内存占用的英语语言预训练模型
基于RoBERTa-Large的多数据集自然语言推理模型
通过MLM误差校正任务优化中文BERT模型的性能
荷兰语BERT预训练模型,适用于多任务自然语言处理
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号