预训练模型工具大全:精选AI工具、网站及开源项目集锦

ruRoberta-large

ruRoberta-large

TransformersruRoberta-large

面向俄语的大规模预训练语言模型 具备强大Transformer架构

roberta-base-finetuned-jd-binary-chinese

roberta-base-finetuned-jd-binary-chinese

文本分类开源项目

精准中文文本分类的先进模型

prediksi-emosi-indobert

prediksi-emosi-indobert

模型预测情感分析

IndoBERT模型应用于印尼语文本情绪预测的工具

MERT-v1-95M

MERT-v1-95M

预训练模型Github

新的音乐理解模型,适应多种任务需求

granite-timeseries-ttm-r2

granite-timeseries-ttm-r2

预训练模型Github

IBM开源轻量级模型TTM引领时间序列预测新方向

llava-onevision-qwen2-72b-si

llava-onevision-qwen2-72b-si

LLaVA-OneVision图像交互

多模态模型提高视觉数据交互准确率

xlnet-large-cased

xlnet-large-cased

HuggingfaceXLNet

基于排列语言建模的先进NLP工具

opt-66b

opt-66b

预训练模型OPT

Meta AI推出OPT系列开源预训练语言模型促进NLP研究

vit_base_patch16_224.orig_in21k

vit_base_patch16_224.orig_in21k

timm图像分类

Vision Transformer图像特征提取模型无分类头版本

umberto-commoncrawl-cased-v1

umberto-commoncrawl-cased-v1

意大利语言模型开源项目

高性能意大利语预训练语言模型 支持全词遮蔽技术

chinese-bert-wwm

chinese-bert-wwm

BERT全词掩码

基于全词掩码技术的中文自然语言处理模型

koelectra-base-v3-discriminator

koelectra-base-v3-discriminator

分词器开源项目

韩语ELECTRA预训练判别器模型

moirai-1.0-R-base

moirai-1.0-R-base

时间序列预测开源项目

基于Transformer的通用时间序列预测模型

indic-bert

indic-bert

IndicBERT多语言模型

专注印度12种语言的轻量级ALBERT预训练模型

mbart-large-50

mbart-large-50

机器翻译开源项目

面向多语言翻译的序列到序列神经网络模型

bert-large-cased-whole-word-masking-finetuned-squad

bert-large-cased-whole-word-masking-finetuned-squad

BERT问答系统

全词掩码BERT大型模型在SQuAD数据集上优化的问答系统

muril-large-cased

muril-large-cased

多语言开源项目

支持17种印度语言的BERT大规模预训练模型

nomic-bert-2048

nomic-bert-2048

BERT预训练模型

预训练BERT模型实现2048序列长度的上下文理解

mdeberta-v3-base-kor-further

mdeberta-v3-base-kor-further

开源项目模型

基于韩语数据强化的多语言DeBERTa模型提升NLP任务性能

chronos-t5-small

chronos-t5-small

语言模型Chronos-T5

T5架构预训练时间序列模型 实现概率性多轨迹预测