面向俄语的大规模预训练语言模型 具备强大Transformer架构
精准中文文本分类的先进模型
IndoBERT模型应用于印尼语文本情绪预测的工具
新的音乐理解模型,适应多种任务需求
IBM开源轻量级模型TTM引领时间序列预测新方向
多模态模型提高视觉数据交互准确率
基于排列语言建模的先进NLP工具
Meta AI推出OPT系列开源预训练语言模型促进NLP研究
Vision Transformer图像特征提取模型无分类头版本
高性能意大利语预训练语言模型 支持全词遮蔽技术
基于全词掩码技术的中文自然语言处理模型
韩语ELECTRA预训练判别器模型
基于Transformer的通用时间序列预测模型
专注印度12种语言的轻量级ALBERT预训练模型
面向多语言翻译的序列到序列神经网络模型
全词掩码BERT大型模型在SQuAD数据集上优化的问答系统
支持17种印度语言的BERT大规模预训练模型
预训练BERT模型实现2048序列长度的上下文理解
基于韩语数据强化的多语言DeBERTa模型提升NLP任务性能
T5架构预训练时间序列模型 实现概率性多轨迹预测
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号