
古文BERT模型 专为古文处理而设计助力文本解析

高效图像分类与特征提取模型 支持移动设备应用

中文自然语言处理的全词掩码预训练模型

改善网络安全任务的预训练语言模型

无需微调,实现高效图像分类的自监督视觉转换器

SQuAD数据集上T5模型的问答生成能力提升研究

基于大规模预训练的模型,提升英语语言任务表现

使用ImageNet数据集进行图像分类的Vision Transformer模型

提升对话任务表现的大规模预训练模型

LINE DistilBERT模型推动日语文本智能处理

ViT图像分类与特征提取模型

科学文献领域的预训练语言模型

面向代码生成与理解的大型语言模型

俄语Transformer模型SberDevices团队的训练与评估

Pytorch平台上的MNLI任务BERT预训练模型

广泛语言支持与长文本处理能力的先进预训练模型

高效低内存占用的英语语言预训练模型

基于RoBERTa-Large的多数据集自然语言推理模型

通过MLM误差校正任务优化中文BERT模型的性能

荷兰语BERT预训练模型,适用于多任务自然语言处理
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号