自然语言处理

专为俄语遮蔽填充任务优化的Transformer预训练语言模型

小规模T0模型超越GPT-3,进行零样本自然语言任务处理

基于BERT的德语命名实体识别模型实现精准NER分析

多语言轻量级模型,优化高效推理和准确性

高效精简的738M参数T5语言模型

传统中文BERT模型及自然语言处理工具

IBM开发的3B参数代码智能模型

开源预训练模型GLM-4-9B实现多语言及多任务处理能力

强大的自然语言处理模型,采用解耦注意力机制的BERT增强版

基于UltraChat数据集训练的Mistral-7B优化模型

俄语预训练语言模型基于GPT-2架构

共享层架构的轻量级语言模型

Mistral语言模型的GPTQ量化优化实现

先进的越南语文本排序模型

Phi-3-medium-128k-instruct模型的多硬件平台适配与量化选项

先进的法语自然语言处理模型

基于Pile数据集训练的160M参数语言模型

面向意大利语的数理推理开源语言模型

基于BART技术的高效对话文本自动摘要模型

高性能轻量级开源语言模型 支持多种量化等级
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号