自然语言处理
专为俄语遮蔽填充任务优化的Transformer预训练语言模型
小规模T0模型超越GPT-3,进行零样本自然语言任务处理
基于BERT的德语命名实体识别模型实现精准NER分析
多语言轻量级模型,优化高效推理和准确性
高效精简的738M参数T5语言模型
传统中文BERT模型及自然语言处理工具
IBM开发的3B参数代码智能模型
开源预训练模型GLM-4-9B实现多语言及多任务处理能力
强大的自然语言处理模型,采用解耦注意力机制的BERT增强版
基于UltraChat数据集训练的Mistral-7B优化模型
俄语预训练语言模型基于GPT-2架构
共享层架构的轻量级语言模型
Mistral语言模型的GPTQ量化优化实现
先进的越南语文本排序模型
Phi-3-medium-128k-instruct模型的多硬件平台适配与量化选项
先进的法语自然语言处理模型
基于Pile数据集训练的160M参数语言模型
面向意大利语的数理推理开源语言模型
基于BART技术的高效对话文本自动摘要模型
高性能轻量级开源语言模型 支持多种量化等级
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号