internlm2-7b

internlm2-7b

增强自然语言处理与长文本分析能力

InternLM2-7B是一款开源自然语言处理模型,以其卓越的语言能力及对20万字符长文本的支持在评测中表现优异。适用于领域适配与复杂任务,提供代码开放与商用使用许可,便于研究与开发者的灵活使用与集成。

长上下文开源项目模型Github开源HuggingfaceInternLM性能评测

项目介绍:InternLM2-7B

背景和简介

InternLM是一个致力于推动自然语言处理技术的项目。进入第二代,InternLM2 发展出了7B和20B这两个不同量级的模型,以适应多样化的研究和应用需求。为了便利用户和研究人员,这些模型的每个规模都有四个版本可供选择。

  1. internlm2-base:这是一个高质量且适应性强的模型基础,适合作为深度领域适配的起点。
  2. internlm2(推荐):它在internlm2-base的基础上,进行了特定领域的进一步预训练,在保持优秀通用语言能力的同时,在评估中表现突出,是大多数应用中的首选模型。
  3. internlm2-chat-sft:在base模型的基础上进行了有监督的人类对齐训练。
  4. internlm2-chat(推荐):此版本基于internlm2-chat-sft,使用RLHF技术优化,为对话交互而设计,善于执行指令、共情交流和调用工具。

技术特点

InternLM2模型具备一些显著的技术特点:

  • 超长上下文支持:该模型能够处理多达20万字符的超长文本输入,实现对长文的精准理解,与“大海捞针”相媲美。同时,它在长文任务(如LongBench和L-Eval)中的表现居于开源模型的前列。

  • 综合性能提升:相比于前一代,InternLM2在推理、数学和代码等各个能力维度都有显著提升。

InternLM2-7B的性能评测

为了评估InternLM2的性能,团队使用了开源评测工具 OpenCompass 对其在多个重要评测集上的表现进行了详尽的测试。以下是部分评测结果:

评测集InternLM2-7BInternLM2-Chat-7BInternLM2-20BInternLM2-Chat-20BChatGPTGPT-4
MMLU65.863.767.766.569.183.0
AGIEval49.947.253.050.339.955.1
BBH65.061.272.168.370.186.7
GSM8K70.870.776.179.678.291.4
MATH20.223.025.531.928.045.8
HumanEval43.359.848.867.173.274.4
MBPP(Sanitized)51.851.463.065.878.979.0

这些评测数据展示了InternLM2-7B在推理和自然语言处理任务中的强大能力与潜力。

模型局限性

尽管在训练过程中,团队尽可能地保障了模型输出的安全性和合规性,但由于模型性质及生成概率的缘故,它仍可能产生意料外的结果,例如包含偏见或有害内容的回复。用户需谨慎对待这些内容的传播。

使用指南

要使用Transformers加载InternLM2-7B模型,可以参考以下代码:

import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("internlm/internlm2-7b", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("internlm/internlm2-7b", torch_dtype=torch.float16, trust_remote_code=True).cuda() model = model.eval() inputs = tokenizer(["来到美丽的大自然"], return_tensors="pt") for k,v in inputs.items(): inputs[k] = v.cuda() gen_kwargs = {"max_length": 128, "top_p": 0.8, "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.0} output = model.generate(**inputs, **gen_kwargs) output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True) print(output)

开源及许可证信息

该项目的代码依据Apache-2.0协议开源,模型权重允许用于学术研究和免费的商业用途。如需商用许可,请填写相应的申请表。对于其他问题或合作意向,请联系 internlm@pjlab.org.cn

引用信息

如果在学术著作中引用该模型,请使用以下引用格式:

@misc{cai2024internlm2,
      title={InternLM2 Technical Report},
      author={Zheng Cai et al.},
      year={2024},
      eprint={2403.17297},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

InternLM2-7B项目致力于推动语言模型研究的边界,通过开源和创新工具的结合,为研究人员和开发者提供了强大的资源和平台,使各种规模的研究和应用得以实现。

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多