自然语言处理

深入解析优化版GPT-2的模型特性与技术实现

BERT文本语义对比模型在MRPC数据集实现86%准确率

面向边缘设备的轻量级零样本文本分类模型

基于百万量级数据训练的儿童故事生成语言模型

面向韩语自然语言处理的BERT预训练模型

韩语句子转换模型的ColBERTv2实现方案

基于T5架构的自动语法纠正工具

轻量级高性能土耳其语BERT模型

支持百种语言的神经网络文本生成器

轻量级德语BERT预训练模型

基于GPT-NeoX架构的36亿参数日语大语言模型

基于DistilBERT的文本向量化模型支持语义搜索与文本聚类

微软开发的轻量压缩型自然语言处理模型

基于Transformers的开源自然语言处理库

轻量快速的预训练语言模型实现BERT级别性能表现

阿拉伯语自然语言预训练模型 支持多任务场景应用

EleutherAI开发的大规模开源语言模型

阿拉伯语命名实体识别模型实现86%准确率

基于SNLI数据集训练且F1分值达0.9的自然语言推理模型

基于DistilBERT的推文作者性别分类模型
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号