自然语言处理

RAG序列模型:知识密集型NLP任务的检索增强生成方案

灵活识别多语言实体的开源NER模型

专为自然语言处理研究设计的中型预训练语言模型

基于DeBERTa V2的大规模日语预训练语言模型

多模态音频语言模型 支持语音交互和内容分析

多语言语义理解和向量化模型

精简BERT模型系列适用于计算资源受限场景

压缩版BART模型用于自然语言推理

FACTUAL数据集驱动的flan-t5场景图解析模型

多语言指令微调大规模语言模型

基于网络数据训练的10亿参数语言模型

基于海量高质量数据训练的70亿参数开源语言模型

已弃用的1024维句子嵌入模型

基于RoBERTa的英语命名实体识别模型 擅长处理非正式文本

BERT中型变体模型用于高效下游任务训练

阿拉伯语BERT命名实体识别模型支持九大类型

DistilRoBERTa基础句子嵌入模型用于语义搜索和文本分析

先进的多语言机器翻译模型实现百种语言无障碍转换

RoBERTa模型微调版本实现高精度文本分类

CodeBERT模型针对Java代码优化 助力代码生成评估
最新AI工具、AI资讯