Qwen2-72B-Instruct-GPTQ-Int4

Qwen2-72B-Instruct-GPTQ-Int4

提升多语言处理能力,支持超长文本输入

Qwen2-72B-Instruct-GPTQ-Int4基于Transformer架构,支持多语言生成和理解,具备长达131,072个标记的处理能力。多专家模型设计增强了在语言生成、代码编写及数学推理方面的表现。提供详细的模型部署指导,利用YARN技术提升长文本处理性能。量化模型基准测试和速度对比数据可协助开发者优化深度学习应用。更多信息和更新请参阅相关博客及文档。

生成能力语言模型Github多语言功能开源项目长文本处理Qwen2-72B-Instruct-GPTQ-Int4Huggingface模型

项目介绍:Qwen2-72B-Instruct-GPTQ-Int4

项目背景

Qwen2-72B-Instruct-GPTQ-Int4是Qwen大型语言模型系列中的一个重要项目。Qwen2系列包括基础语言模型和指令调优模型,参数范围从0.5亿到72亿不等。本项目特别提供了一个经过指令调优的72B模型。

相比之前发布的开源语言模型,包括Qwen1.5,Qwen2在多项基准测试中表现出色。这些测试涵盖了语言理解、生成、多语言能力、编程、数学推理等多个领域,表明Qwen2不仅超越了大多数开源模型,也表现出对抗专有模型的竞争力。

模型详细信息

Qwen2是基于Transformer架构的语言模型系列,使用了SwiGLU激活函数、注意力QKV偏置、组查询注意力等技术。此外,它还配备了适应多种自然语言和代码的改进型分词器,具备优秀的表达能力。

训练与优化

模型训练在大量数据基础上进行预训练,并结合了监督微调和直接偏好优化等高级方法,以提升模型的调优效果和适用性。

环境要求

为了保证良好运行环境,建议用户使用最新的Hugging Face Transformers库,并安装transformers>=4.37.0版本,否则可能出现KeyError: 'qwen2'的错误提示。

快速开始

以下是使用Qwen2模型的一段代码示例,展示如何加载分词器和模型,生成文本内容:

from transformers import AutoModelForCausalLM, AutoTokenizer device = "cuda" # 将模型加载到指定设备 model = AutoModelForCausalLM.from_pretrained( "Qwen/Qwen2-72B-Instruct-GPTQ-Int4", torch_dtype="auto", device_map="auto" ) tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2-72B-Instruct-GPTQ-Int4") prompt = "简述大型语言模型。" messages = [ {"role": "system", "content": "你是一位乐于助人的助手。"}, {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) model_inputs = tokenizer([text], return_tensors="pt").to(device) generated_ids = model.generate( model_inputs.input_ids, max_new_tokens=512 ) generated_ids = [ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids) ] response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

处理长文本

Qwen2-72B-Instruct-GPTQ-Int4最多支持131,072个token的上下文长度,这在处理大规模输入时尤为有用。为了优化长文本处理能力,项目引入了YARN技术,以提升模型在超长序列上的表现。

部署步骤

  1. 安装vLLM: 执行如下命令安装vLLM。

    pip install "vllm>=0.4.3"

    或者从源码安装。

  2. 配置模型设置: 下载模型权重后,修改config.json文件,插入以下配置:

    { "architectures": [ "Qwen2ForCausalLM" ], // ... "vocab_size": 152064, // 添加以下配置以支持YARN "rope_scaling": { "factor": 4.0, "original_max_position_embeddings": 32768, "type": "yarn" } }
  3. 模型部署: 使用vLLM部署模型。例如,设置一个类似OpenAI的服务器:

    python -m vllm.entrypoints.openai.api_server --served-model-name Qwen2-72B-Instruct-GPTQ-Int4 --model path/to/weights

    然后通过以下方式访问API:

    curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "Qwen2-72B-Instruct-GPTQ-Int4", "messages": [ {"role": "system", "content": "你是一位乐于助人的助手。"}, {"role": "user", "content": "输入你的长文本内容。"} ] }'

请注意,目前vLLM仅支持静态YARN,这意味着缩放因子在输入长度上保持不变,可能影响短文本的表现。建议仅在需要处理长上下文时添加rope_scaling配置。

基准测试与性能

要了解bfloat16 (bf16) 和量化模型(如GPTQ-Int8, GPTQ-Int4, AWQ)之间的生成性能差异,可以查阅我们的量化模型基准测试。该基准测试为不同量化技术如何影响模型性能提供了深入的见解。

如果对使用transformervLLM部署模型时推理速度和内存消耗感兴趣,请参阅我们编制的速度基准测试

引用

如果觉得我们的工作对您有帮助,欢迎引用我们的研究:

@article{qwen2,
  title={Qwen2 Technical Report},
  year={2024}
}

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多