
面向俄语的大规模预训练语言模型 具备强大Transformer架构

精准中文文本分类的先进模型

IndoBERT模型应用于印尼语文本情绪预测的工具

新的音乐理解模型,适应多种任务需求

IBM开源轻量级模型TTM引领时间序列预测新方向

多模态模型提高视觉数据交互准确率

基于排列语言建模的先进NLP工具

Meta AI推出OPT系列开源预训练语言模型促进NLP研究

Vision Transformer图像特征提取模型无分类头版本

高性能意大利语预训练语言模型 支持全词遮蔽技术

基于全词掩码技术的中文自然语言处理模型

韩语ELECTRA预训练判别器模型

基于Transformer的通用时间序列预测模型

专注印度12种语言的轻量级ALBERT预训练模型

面向多语言翻译的序列到序列神经网络模型

全词掩码BERT大型模型在SQuAD数据集上优化的问答系统

支持17种印度语言的BERT大规模预训练模型

预训练BERT模型实现2048序列长度的上下文理解

基于韩语数据强化的多语言DeBERTa模型提升NLP任务性能

T5架构预训练时间序列模型 实现概率性多轨迹预测
最新AI工具、AI资讯