大语言模型
轻量高效的开源模型支持长文本处理和函数调用
18亿参数开源语言模型支持20万字超长上下文输入
多语言支持的llama3-8B GGUF量化模型,提供多级压缩优化
基于BERT的多语言提示词压缩模型
基于Vicuna的开源多模态视觉语言模型
Meta-Llama 3.1量化版大模型支持多语种文本生成
新一代指令优化语言模型Qwen2的潜力
Jais系列模型助力阿拉伯语与英语双语处理
开源支持128K上下文的多语言大规模语言模型
高效压缩的大规模语言模型适用于多种自然语言生成任务
Google发布的高性能7B参数语言模型
高性能开源聊天助手模型 支持16K长文本输入
32B参数大语言模型支持128K上下文与多语言多领域能力
高效LLM微调框架提速2-5倍并减少70%内存使用
StableLM开源语言模型在1万亿token数据上训练达到30亿参数规模
中英双语AI内容安全检测模型 支持自定义规则审核
多语言大规模生成模型,专注角色扮演对话
利用优化技术实现提速和内存节省的开源语言模型项目
recoilme-gemma-2-9B-v0.3模型的应用与操作指南
70亿参数规模的多语言开源预训练语言模型
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号