
优化指令遵循与对话功能的开源对话模型
InternLM2-Chat-1.8B是一款经过精确调整的1.8亿参数开源对话模型 ,通过监督微调和在线RLHF优化,支持超长文本处理,适用于多种应用场景。其在推理、数学和编码任务中表现出色,依照Apache-2.0协议开源,商用需申请许可。
InternLM2-Chat-1.8B 是书生·浦语系列的第二代模型之一,拥有18亿参数。为了便于用户使用和研究,InternLM2-1.8B 提供了三个不同版本的开源模型:
InternLM2 系列模型在技术上有以下几个显著特性:
InternLM2 的性能在多个重要的评测集上进行了测试,以下是部分测试结果:
| 评测集 | InternLM2-1.8B | InternLM2-Chat-1.8B-SFT |
|---|---|---|
| MMLU | 46.9 | 47.1 |
| AGIEval | 33.4 | 38.8 |
| BBH | 37.5 | 35.2 |
| GSM8K | 31.2 | 39.7 |
| MATH | 5.6 | 11.8 |
| HumanEval | 25.0 | 32.9 |
| MBPP (Sanitized) | 22.2 | 23.2 |
尽管在训练过程中我们努力提高模型的安全性,并尝试使输出内容符合伦理和法律要求,但由于模型的复杂性和随机性,仍可能产生不符合预期的输出,例如包含偏见或其他有害内容。请谨慎对待这样的输出。
以下代码展示了如何使用Transformers库加载InternLM2 1.8B Chat模型:
import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("internlm/internlm2-chat-1_8b", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("internlm/internlm2-chat-1_8b", torch_dtype=torch.float16, trust_remote_code=True).cuda() model = model.eval() response, history = model.chat(tokenizer, "你好", history=[]) print(response)
用户可以使用LMDeploy来轻松地压缩、部署和服务大语言模型。以下是基本部署步骤:
pip install lmdeploy
运行以下命令启动兼容OpenAI的服务器:
lmdeploy serve api_server internlm/internlm2-chat-1_8b --model-name internlm2-chat-1_8b --server-port 23333
更多详细信息请查看 LMDeploy 文档
项目的代码根据Apache-2.0协议开源,模型权重对学术研究完全开放并允许免费用于商业用途。对于商业使用授权的申请,请填写相应的申请表。
如有 其他问题或合作,请通过internlm@pjlab.org.cn联系我们。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

