Qwen2.5-7B-Instruct-GPTQ-Int8

Qwen2.5-7B-Instruct-GPTQ-Int8

Qwen2.5模型实现多语言支持与优化长文本处理

Qwen2.5模型具备多语言支持和改良的长文本处理能力,增强了编程、数学及指令执行的表现。其GPTQ-8位量化模型支持最长128K上下文与最高生成8192个令牌,提供因果语言模型架构,适合多领域应用。支持29种语言,包括中文、英语和法语,为开发者提供多样化的功能。

开源项目量化模型Github大模型多语言支持Huggingface模型指令微调Qwen2.5

项目介绍:Qwen2.5-7B-Instruct-GPTQ-Int8

项目简介

Qwen2.5是最新系列的Qwen大型语言模型。在Qwen2.5中,推出了多个基础语言模型和经过指令调优的语言模型,其参数规模从0.5亿到72亿不等。与第二代Qwen相比,Qwen2.5在以下几个方面有显著提升:

  • 大幅度增加知识储备,在编程数学计算能力上有极大提升,这得益于专门领域的专家模型。
  • 指令跟随、生成长篇文本(超过8K个标记)、理解结构化数据(如表格)以及生成结构化输出(尤其是JSON格式)上有显著提升。对系统提示的多样性拥有更强的抵抗力,从而改善聊天机器人的角色扮演和条件设定。
  • 支持长文本上下文,最多可达128K个标记,能够生成多达8K个标记。
  • 提供多语言支持,涵盖29种语言,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

本项目提供了经过GPTQ量化的8位指令调优7B Qwen2.5模型,具有以下特征:

  • 类型:自回归语言模型
  • 训练阶段:包括预训练和后续训练
  • 架构:采用transformers技术,结合RoPE、SwiGLU、RMSNorm和Attention QKV偏置
  • 参数数量:总计7.61亿,非嵌入部分为6.53亿
  • 层数:28层
  • 注意力头数量(GQA):Q部分28个,KV部分4个
  • 上下文长度:全长支持131,072个标记,生成支持8192个标记
  • 量化:GPTQ 8位

关于更多详情,请参考我们的博客GitHub文档

使用要求

Qwen2.5的代码已集成在最新版本的Hugging Face transformers库中,建议使用最新版本。如果使用transformers<4.37.0,将会遇到如下错误:

KeyError: 'qwen2'

此外,建议用户查阅我们的GPTQ文档以获取更多使用指南。

快速开始

下面是一段代码示例,展示了如何使用apply_chat_template加载分词器和模型并生成内容:

from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/Qwen2.5-7B-Instruct-GPTQ-Int8" model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto" ) tokenizer = AutoTokenizer.from_pretrained(model_name) prompt = "给我一份关于大型语言模型的简要介绍。" messages = [ {"role": "system", "content": "你是Qwen,由阿里云创建。你是一个乐于助人的助手。"}, {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate( **model_inputs, max_new_tokens=512 ) generated_ids = [ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids) ] response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

处理长文本

当前config.json文件设定上下文长度最高为32,768个标记。为了处理超过32,768个标记的长文本输入,我们采用了YaRN技术,这是一种增强模型长度推导能力的方法,以确保在处理长文本时达到最佳性能。

要在支持的框架中启用YaRN,可以在config.json中添加如下配置:

{ ..., "rope_scaling": { "factor": 4.0, "original_max_position_embeddings": 32768, "type": "yarn" } }

在部署时,建议使用vLLM。对于不熟悉vLLM的用户,请参考我们的文档。目前,vLLM仅支持静态YARN,这意味着无论输入长度如何,缩放因子保持不变,可能影响短文本的性能。因此,当仅需处理长文本时,建议添加rope_scaling配置。

评估与性能

有关详细的评估结果,请参见此📑博客

对于量化模型,与原生bfloat16模型的基准对比结果可以在这里找到。

关于GPU内存需求及相应的吞吐量结果,详见这里

引用

如果您觉得我们的工作对您有帮助,欢迎进行引用:

@misc{qwen2.5,
    title = {Qwen2.5: A Party of Foundation Models},
    url = {https://qwenlm.github.io/blog/qwen2.5/},
    author = {Qwen Team},
    month = {September},
    year = {2024}
}

编辑推荐精选

潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

下拉加载更多