Qwen2.5-14B-Instruct-GPTQ-Int4

Qwen2.5-14B-Instruct-GPTQ-Int4

Qwen2.5具备大规模多语言处理与长文本生成能力

Qwen2.5系列模型显著增强了编码与数学能力,支持128K令牌的长文本上下文,并可生成超过8K令牌的文本输出。提供29种语言的多语言支持,包括中、英文和其他主要语言。模型在系统提示多样性适应以及角色扮演和条件设置方面均有提升。指令调优的GPTQ 4-bit模型在处理结构化数据和生成结构化输出方面表现优秀。

大语言模型Qwen2.5开源项目模型Huggingface长上下文支持多语言支持量化Github

项目介绍:Qwen2.5-14B-Instruct-GPTQ-Int4

项目背景

Qwen2.5是最新推出的一系列大型语言模型,其中包含一系列基础语言模型和经过指令调整的语言模型,参数规模从0.5亿到72亿不等。Qwen2.5相比之前的版本Qwen2,带来了多个方面的显著改进:

  • 知识储备更为丰富,尤其擅长编程数学领域的问题,得益于在这些领域中的专门专家模型。
  • 指令执行长文本生成(超过8000个标记)、结构化数据理解(如表格)、尤其在JSON格式的结构化输出生成方面表现显著提升。模型对于系统提示的多样性有更好的适应性,提升了角色扮演和条件设定能力。
  • 支持长文本上下文,上下文长度支持到128,000个标记,生成文本的上限为8,000个标记。
  • 支持超过29种语言的多语言处理,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

项目特点

这个项目包含了一个经过GPTQ量化的4-bit指令调整模型,具有以下特点:

  • 类型:因果语言生成模型
  • 训练阶段:预训练及后期调整
  • 架构:采用带有RoPE、SwiGLU、RMSNorm和Attention QKV偏置的transformers架构
  • 参数数量:14.7亿,总参数中非嵌入参数为13.1亿
  • 层数:48层
  • 注意力头数(GQA):对于Q为40,对于KV为8
  • 上下文长度:完整支持131,072个标记,生成支持8,192个标记
  • 量化:GPTQ 4-bit

使用说明

Qwen2.5的代码已集成到最新版本的Hugging Face transformers库中,建议使用最新版以避免错误。此外,用户可以查阅我们的GPTQ文档获取详细使用指南。

以下是一个快速开始的代码示例,展示了如何加载tokenizer和模型并生成内容:

from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/Qwen2.5-14B-Instruct-GPTQ-Int4" model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto" ) tokenizer = AutoTokenizer.from_pretrained(model_name) prompt = "Give me a short introduction to large language model." messages = [ {"role": "system", "content": "You are Qwen, created by Alibaba Cloud. You are a helpful assistant."}, {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate( **model_inputs, max_new_tokens=512 ) generated_ids = [ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids) ] response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

长文本处理

当前的config.json配置用于支持最大32,768个标记的上下文。为了处理超过32,768标记的输入,我们使用了YaRN技术,增强模型在长文本上的性能。

如果需要处理长文本,可以在config.json中添加以下配置来启用YaRN:

{ ..., "rope_scaling": { "factor": 4.0, "original_max_position_embeddings": 32768, "type": "yarn" } }

评价与性能

关于量化模型和原始bfloat16模型的性能对比,请参阅相关基准测试结果。对于GPU内存需求和相应的吞吐量,请查看速度基准测试结果

引用

如果您觉得我们的工作有帮助,欢迎引用我们的研究。

@misc{qwen2.5,
    title = {Qwen2.5: A Party of Foundation Models},
    url = {https://qwenlm.github.io/blog/qwen2.5/},
    author = {Qwen Team},
    month = {September},
    year = {2024}
}

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多