EfficientQAT

EfficientQAT

高效量化训练技术助力大型语言模型压缩

EfficientQAT是一种针对大型语言模型的量化训练技术。该技术采用两阶段训练方法,包括分块训练所有参数和端到端训练量化参数,在压缩模型大小的同时保持性能。EfficientQAT支持GPTQ和BitBLAS等多种量化格式,已成功应用于Llama和Mistral等模型系列,有效降低模型存储需求,为大型语言模型的部署提供了实用方案。

EfficientQAT大语言模型量化训练模型压缩PyTorchGithub开源项目

EfficientQAT

论文EfficientQAT:大型语言模型的高效量化感知训练的官方PyTorch实现

新闻

  • [2024/08] 微软的新推理后端T-MAC已支持EffcientQAT模型。
  • [2024/08] 我们支持Mistral-Large-Instruct的量化。使用我们的EfficientQAT的W2g64 Mistral-Large-Instruct可以将123B模型压缩到35 GB,精度仅下降4个点。
  • [2024/07] 新功能!我们支持将EfficientQAT量化模型转换为GPTQ v2格式和BitBLAS格式,可以通过GPTQModel直接加载。
  • [2024/07] 我们发布了EfficientQAT,以高效的方式推动了均匀(INT)量化的极限。

目录

安装

  1. 克隆此仓库并进入EfficientQAT文件夹
git clone https://github.com/OpenGVLab/EfficientQAT.git
cd EfficientQAT
  1. 安装包
conda create -n efficientqat python==3.11

conda activate efficientqat

pip install -r requirements.txt

模型库

我们提供了一些预量化的EfficientQAT模型,如下所示:

  • WikiText2 PPL在2048上下文长度下测量。
  • 平均准确率表示5个零样本推理任务(WinoGrande、PIQA、HellaSwag、Arc-Easy、Arc-Challenge)的平均准确率,使用lm-eval v0.4.2
  • 1GB = $10^9$ 比特
  • 仓库链接:EQAT表示原始检查点。我们还将检查点转换为GPTQ和BitBLAS格式,可以通过GPTQModel直接加载。(注:GPTQModel是AutoGPTQ的官方修复错误版本,将来会合并到AutoGPTQ中。) | 模型 | 量化 | WikiText2 困惑度 | 平均准确率 | 模型大小 (GB) | Hub 链接 | |-------|------|-----------------|------------|---------------|----------| Llama-2-7B|fp16|5.47|64.86|13.2|-| Llama-2-7B|w4g128|5.53|64.27|3.7|EQAT|GPTQ|BitBLAS| Llama-2-7B|w3g128|5.81|64.02|3.1|EQAT| Llama-2-7B|w2g64|6.86|60.14|2.3|EQAT|GPTQ|BitBLAS| Llama-2-7B|w2g128|7.17|59.50|2.2|EQAT|GPTQ|BitBLAS| Llama-2-13B|fp16|4.88|67.81|25.4|-| Llama-2-13B|w4g128|4.93|67.52|6.8|EQAT|GPTQ|BitBLAS| Llama-2-13B|w3g128|5.12|67.28|5.6|EQAT| Llama-2-13B|w2g64|5.96|64.88|4.0|EQAT|GPTQ|BitBLAS| Llama-2-13B|w2g128|6.08|63.88|3.8|EQAT|GPTQ|BitBLAS| Llama-2-70B|fp16|3.32|72.41|131.6|-| Llama-2-70B|w4g128|3.39|72.62|35.8|EQAT|GPTQ|BitBLAS| Llama-2-70B|w3g128|3.61|71.76|29.1|EQAT| Llama-2-70B|w2g64|4.52|69.48|20.1|EQAT|GPTQ|BitBLAS| Llama-2-70B|w2g128|4.61|68.93|18.9|EQAT|GPTQ|BitBLAS| Llama-3-8B|fp16|6.14|68.58|13.0|-| Llama-3-8B|w4g128|6.47|68.43|5.4|EQAT|GPTQ|BitBLAS| Llama-3-8B|w3g128|7.09|67.35|4.7|EQAT| Llama-3-8B|w2g64|9.41|60.76|3.9|EQAT|GPTQ|BitBLAS| Llama-3-8B|w2g128|9.80|59.36|3.8|EQAT|GPTQ|BitBLAS| Llama-3-70B|fp16|2.85|75.33|137.8|-| Llama-3-70B|w4g128|3.17|74.57|38.9|EQAT|GPTQ|BitBLAS| Llama-3-70B|w3g128|4.19|72.42|32.2|EQAT| Llama-3-70B|w2g64|6.08|67.89|23.2|EQAT|GPTQ| Llama-3-70B|w2g128|6.38|67.57|22.0|EQAT|GPTQ|BitBLAS| Llama-3-8B-Instruct|fp16|8.29|68.43|13.0|-| Llama-3-8B-Instruct|w4g128|7.93|68.39|5.4|EQAT|GPTQ|BitBLAS| Llama-3-8B-Instruct|w3g128|8.55|67.24|4.7|EQAT| Llama-3-8B-Instruct|w2g64|11.19|60.66|3.9|EQAT|GPTQ|BitBLAS| Llama-3-8B-Instruct|w2g128|11.73|60.16|3.8|EQAT|GPTQ|BitBLAS| Llama-3-70B-Instruct|fp16|5.33|73.78|137.8|-| Llama-3-70B-Instruct|w4g128|5.35|73.47|38.9|EQAT|GPTQ|BitBLAS| Llama-3-70B-Instruct|w3g128|5.65|72.87|32.2|EQAT| Llama-3-70B-Instruct|w2g64|7.86|67.64|23.2|EQAT|GPTQ|BitBLAS| Llama-3-70B-Instruct|w2g128|8.14|67.54|22.0|EQAT|GPTQ|BitBLAS| Mistral-Large-Instruct-2407|fp16|2.74|77.76|228.5|-| Mistral-Large-Instruct-2407|w2g64|5.58|73.54|35.5|GPTQ

训练

EfficientQAT包含两个连续的训练阶段:所有参数的分块训练(Block-AP)和量化参数的端到端训练(E2E-QP)。详细的训练脚本可以在./examples中找到。以下我们给出Llama-2-7B模型使用w2g64量化的训练脚本示例。

  1. Block-AP

在运行以下命令之前,你应该在脚本中将--model修改为全精度模型的文件夹。

bash examples/block_ap/Llama-2-7b/w2g64.sh

具体来说,在我们的实验中,2比特量化的--weight_lr2e-5,3/4比特量化为1e-5

其他一些重要参数:

  • --train_size:训练数据样本数量,默认为4096
  • --val_size:验证数据样本数量,默认为64
  • --off_load_to_disk:将训练数据集保存到磁盘,节省CPU内存但可能降低训练速度
  1. E2E-QP

然后,你可以加载Block-AP的量化模型进行进一步的E2E-QP。具体来说,E2E-QP可以通过更改训练数据集来适应不同场景。在运行以下命令之前,你应该在脚本中将--quant_model_path修改为量化模型的文件夹。

1)在RedPajama上训练

bash examples/e2e_qp/Llama-2-7b/w2g64-redpajama.sh

2)在Alpaca上训练

bash examples/e2e_qp/Llama-2-7b/w2g128-redpajama.sh

具体来说,在我们的实验中,2比特量化的--learning_rate2e-5,3/4比特量化为1e-5。你可以降低--per_device_train_batch_size以减少训练期间的内存占用,并确保--gradient_accumulation_steps相应增加相同倍数以保持相同的批量大小。

推理

  1. 从Huggingface下载预量化的EfficientQAT模型
pip install huggingface_hub

huggingface-cli download ChenMnZ/Llama-2-7b-EfficientQAT-w2g64 --local-dir ./output/pre_quantized_models/Llama-2-7b-EfficientQAT-w2g64
  1. 评估预量化的EfficientQAT模型
CUDA_VISIBLE_DEVICES=0 python main_block_ap.py \
--resume_quant ./output/pre_quantized_models/Llama-2-7b-EfficientQAT-w2g64 \
--net Llama-2 \
--wbits 2 \
--group_size 64 \
--output_dir ./output/inference_results/ \
--eval_ppl \
--eval_tasks  piqa,arc_easy,arc_challenge,hellaswag,winogrande

模型转换

首先,你应该安装gptqmodel包以支持GPTQ和BitBLAS量化格式:

git clone https://github.com/ModelCloud/GPTQModel.git && cd GPTQModel
bash install.sh
  • 在我们的经验中,我们使用gptqmodel v0.9.8进行测试。

然后,我们提供以下三种转换方式:

  1. 将EfficientQAT检查点转换为GPTQ格式
bash examples/model_transfer/efficientqat_to_gptq/llama-2-7b.sh
  • 注意:目前AutoGPTQ对非对称量化存在溢出错误。因此,我们选择官方修复版本GPTQModel来转换我们的非对称量化模型。因此,本仓库提供的GPTQ模型只能通过GPTQModel成功加载,而不能通过AutoGPTQ加载。
  1. 将EfficientQAT检查点转换为BitBLAS格式
bash examples/model_transfer/efficientqat_to_bitblas/llama-2-7b.sh
  • 加速存在一些问题,详情请参考此问题
  1. 将EfficientQAT检查点中的fp32数据转换为半精度对应项。 一些参数在训练时被保存为fp32,你可以在训练后将它们转换为半精度以进一步减小模型大小。
bash examples/model_transfer/fp32_to_16/llama-2-7b.sh

其他格式的推理

以下是使用GPTQ或BitBLAS量化格式进行推理的示例。

from transformers import AutoTokenizer from gptqmodel import GPTQModel quant_dir = "ChenMnZ/Llama-2-7b-EfficientQAT-w2g128-GPTQ" # quant_dir = "ChenMnZ/Llama-2-7b-EfficientQAT-w2g128-BitBLAS" # 或本地路径 tokenizer = AutoTokenizer.from_pretrained(quant_dir, use_fast=True) # 将量化模型加载到第一个GPU model = GPTQModel.from_quantized(quant_dir) # 使用model.generate进行推理 print(tokenizer.decode(model.generate(**tokenizer("Model quantization is", return_tensors="pt").to(model.device))[0]))

引用

如果您发现本工作有用,请考虑引用:

@article{efficientqat,
  title={EfficientQAT: Efficient Quantization-Aware Training for Large Language Models},
  author={Chen, Mengzhao and Shao, Wenqi and Xu, Peng and Wang, Jiahao and Gao, Peng and Zhang, Kaipeng and Qiao, Yu and Luo, Ping},
  journal={arXiv preprint arXiv:2407.11062},
  year={2024}
}

编辑推荐精选

QoderWork

QoderWork

阿里Qoder团队推出的桌面端AI智能体

QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。

音述AI

音述AI

全球首个AI音乐社区

音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。

lynote.ai

lynote.ai

一站式搞定所有学习需求

不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。

AniShort

AniShort

为AI短剧协作而生

专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。

seedancetwo2.0

seedancetwo2.0

能听懂你表达的视频模型

Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。

nano-banana纳米香蕉中文站

nano-banana纳米香蕉中文站

国内直接访问,限时3折

输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

下拉加载更多