基于T5架构的轻量级时间序列预测模型
基于2.5TB数据训练的100语种自然语言处理模型
T5架构驱动的大规模时间序列预测基础模型
基于深度学习的源代码安全漏洞检测模型
德语BERT预训练模型 为自然语言处理任务提供基础
跨101种语言的预训练文本转换模型
基于大规模预训练的多轮对话生成模型
BERT大型无大小写全词掩码预训练模型
微软开发的 多模态文档理解大型预训练模型
Wav2Vec2大型西班牙语语音识别模型基于VoxPopuli预训练
基于ImageNet-21k预训练的大型Vision Transformer模型
CodeT5-base多语言代码摘要生成模型
HuBERT模型在俄语语音情感识别上的应用与优化
SegFormer层次化Transformer编码器预训练模型
Meta AI开发的开源预训练Transformer语言模型系列
用于自然语言生成和理解的预训练序列到序列模型
ConvNeXt图像分类模型:ImageNet-22k预训练和ImageNet-1k微调
大规模多语言语音编码器
Google T5模型的改进版本 专注于文本到文本的转换任务
字节级多语言自然语言处理模型
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号