
基于T5架构的轻量级时间序列预测模型

基于2.5TB数据训练的100语种自然语言处理模型

T5架构驱动的大规模时间序列预测基础模型

基于深度学习的源代码安全漏洞检测模型

德语BERT预训练模型 为自然语言处理任务提供基础

跨101种语言的预训练文本转换模型

基于大规模预训练的多轮对话生成模型

BERT大型无大小写全词掩码预训练模型

微软开发的 多模态文档理解大型预训练模型

Wav2Vec2大型西班牙语语音识别模型基于VoxPopuli预训练

基于ImageNet-21k预训练的大型Vision Transformer模型

CodeT5-base多语言代码摘要生成模型

HuBERT模型在俄语语音情感识别上的应用与优化

SegFormer层次化Transformer编码器预训练模型

Meta AI开发的开源预训练Transformer语言模型系列

用于自然语言生成和理解的预训练序列到序列模型

ConvNeXt图像分类模型:ImageNet-22k预训练和ImageNet-1k微调

大规模多语言语音编码器

Google T5模型的改进版本 专注于文本到文本的转换任务

字节级多语言自然语言处理模型
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号