通过MLM误差校正任务优化中文BERT模型的性能
用于解释性研究的大规模语言模型套件
新一代开源大语言模型在多个领域表现出色的中立评估
基于BERT的文本序列分类模型
ggml格式提供的llama.cpp兼容推理文件
基于Llama 3的先进内容安全模型
增强自然语言处理能力的多样化指令微调模型
实时全双工语音对话的AI模型革新
开源创新:OpenChat挑战70B模型新高度
基于韩语评论数据构建的KcBERT模型实现性能优化
高效4比特量化,实现多用户并发推理
句子向量化提升语义搜索与聚类效率
利用微调的wav2vec2模型提升多语言语音和语素识别能力
开源多语言大模型Qwen2.5 32B量化版支持超长文本处理
突破性AI图像生成,无需依赖负面提示
荷兰语BERT预训练模型,适用于多任务自然语言处理
加利西亚语与葡萄牙语翻译模型
提高模型生成速度与资源效率的Transformer架构MoE语言模型
OPT-13B-Erebus模型功能与应用概述
支持多语言对话的开源模型
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号