自然语言处理
深入解析优化版GPT-2的模型特性与技术实现
BERT文本语义对比模型在MRPC数据集实现86%准确率
面向边缘设备的轻量级零样本文本分类模型
基于百万量级数据训练的儿童故事生成语言模型
面向韩语自然语言处理的BERT预训练模型
韩语句子转换模型的ColBERTv2实现方案
基于T5架构的自动语法纠正工具
轻量级高性能土耳其语BERT模型
支持百种语言的神经网络文本生成器
轻量级德语BERT预训练模型
基于GPT-NeoX架构的36亿参数日语大语言模型
基于DistilBERT的文本向量化模型支持语义搜索与文本聚类
微软开发的轻量压缩型自然语言处理模型
基于Transformers的开源自然语言处理库
轻量快速的预训练语言模型实现BERT级别性能表现
阿拉伯语自然语言预训练模型 支持多任务场景应用
EleutherAI开发的大规模开源语言模型
阿拉伯语命名实体识别模型实现86%准确率
基于SNLI数据集训练且F1分值达0.9的自然语言推理模型
基于DistilBERT的推文作者性别分类模型
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号