大语言模型

轻量高效的开源模型支持长文本处理和函数调用

18亿参数开源语言模型支持20万字超长上下文输入

多语言支持的llama3-8B GGUF量化模型,提供多级压缩优化

基于BERT的多语言提示词压缩模型

基于Vicuna的开源多模态视觉语言模型

Meta-Llama 3.1量化版大模型支持多语种文本生成

新一代指令优化语言模型Qwen2的潜力

Jais系列模型助力阿拉伯语与英语双语处理

开源支持128K上下文的多语言大规模语言模型

高效压缩的大规模语言模型适用于多种自然语言生成任务

Google发布的高性能7B参数语言模型

高性能开源聊天助手模型 支持16K长文本输入

32B参数大语言模型支持128K上下文与多语言多领域能力

高效LLM微调框架提速2-5倍并减少70%内存使用

StableLM开源语言模型在1万亿token数据上训练达到30亿参数规模

中英双语AI内容安全检测模型 支持自定义规则审核

多语言大规模生成模型,专注角色扮演对话

利用优化技术实现提速和内存节省的开源语言模型项目

recoilme-gemma-2-9B-v0.3模型的应用与操作指南

70亿参数规模的多语言开源预训练语言模型
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号