自然语言处理
RAG序列模型:知识密集型NLP任务的检索增强生成方案
灵活识别多语言实体的开源NER模型
专为自然语言处理研究设计的中型预训练语言模型
基于DeBERTa V2的大规模日语预训练语言模型
多模态音频语言模型 支持语音交互和内容分析
多语言语义理解和向量化模型
精简BERT模型系列适用于计算资源受限场景
压缩版BART模型用于自然语言推理
FACTUAL数据集驱动的flan-t5场景图解析模型
多语言指令微调大规模语言模型
基于网络数据训练的10亿参数语言模型
基于海量高质量数据训练的70亿参数开源语言模型
已弃用的1024维句子嵌入模型
基于RoBERTa的英语命名实体识别模型 擅长处理非正式文本
BERT中型变体模型用于高效下游任务训练
阿拉伯语BERT命名实体识别模型支持九大类型
DistilRoBERTa基础句子嵌入模型用于语义搜索和文本分析
先进的多语言机器翻译模型实现百种语言无障碍转换
RoBERTa模型微调版本实现高精度文本分类
CodeBERT模型针对Java代码优化 助力代码生成评估
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号