
高效2比特KV缓存量化算法提升大型语言模型性能
KIVI是一种创新的2比特KV缓存量化算法,无需模型微调即可优化大型语言模型的内存使用。该算法对键缓存按通道、值缓存按令牌进行量化,适用于Llama-2、Falcon和Mistral等模型。KIVI在保持模型质量的同时,将峰值内存使用降低2.6倍,批处理大小提升4倍,推理吞吐量增加2.35至3.47倍。其硬件友好设计有效缓解了大型语言模型推理中的速度和内存瓶颈问题。
《KIVI:用于KV缓存的无需调优的非对称2位量化》的实现
KIVI 是一种新的即插即用的 2 位 KV 缓存量化算法,无需任何微调。该算法通过对每个通道的键缓存和每个 token 的值缓存进行 2 位量化来优化内存使用。KIVI 的硬件友好设计允许 Llama-2、Falcon 和 Mistral 等 LLM 在保持可比质量水平的同时,将峰值内存使用减少 2.6 倍。这使得批量大小可以增加到 4 倍,并在实际 LLM 推理工作负载中显著提高吞吐量 2.35 到 3.47 倍,有效解决了速度和内存使用的瓶颈问题。
KIVI 量化方案示意图:每通道键缓存和每 token 值缓存。
KIVI 算法在推理预填充和解码阶段的示意图:
安装所需包:
conda create -n kivi python=3.10 conda activate kivi pip install --upgrade pip # 启用 PEP 660 支持 pip install -e .
然后安装我们的 CUDA 实现:
cd quant && pip install -e .
使用 KIVI 加载模型:(例如,Llama-2-7b)
# 使用 KIVI 的 LLaMA 模型 import torch import os from models.llama_kivi import LlamaForCausalLM_KIVI from transformers import LlamaConfig, AutoTokenizer config = LlamaConfig.from_pretrained("meta-llama/Llama-2-7b-hf") config.k_bits = K_BITS # 当前支持 KV 缓存的 2/4 位 config.v_bits = V_BITS # 当前支持 KV 缓存的 2/4 位 config.group_size = GROUP_SIZE config.residual_length = RESIDUAL_LENGTH # 最近的 fp16 token 数量 CACHE_DIR = PATH_TO_YOUR_SAVE_DIR model = LlamaForCausalLM_KIVI.from_pretrained( pretrained_model_name_or_path='meta-llama/Llama-2-7b-hf', config=config, cache_dir=CACHE_DIR, torch_dtype=torch.float16, low_cpu_mem_usage=True, device_map="auto", ) tokenizer = AutoTokenizer.from_pretrained( 'meta-llama/Llama-2-7b-hf', use_fast=False, trust_remote_code=True, tokenizer_type='llama') # 推理 # 例如,model.generate(...)
我们使用 GSM8K 作为示例来展示如何使用 KIVI。您可以查看 example.py:
python example.py
使用 KIVI 进行密钥检索。您可以查看 long_context_example.py:
python long_context_example.py
我们目前支持 Llama 和 Mistral 系列模型。我们最近在 Mistral-7B-Instruct-v0.2 和 Longchat-7b-v1.5-32k 上测试了 KIVI。更多详情请查看 long_bench.md。
bash scripts/long_test.sh {GPU_ID} {K_BITS} {V_BITS} {GROUP_LENGTH} {RESIDUAL_LENGTH} {MODEL_NAME} python eval_long_bench.py --model {MODEL} # MODEL 是 pred/ 下的目录名。目前支持 Llama 系列模型和 Mistral 模型。
如果您觉得我们的方法有用,请引用我们的论文。
@article{liu2024kivi, title={KIVI: A Tuning-Free Asymmetric 2bit Quantization for KV Cache}, author={Liu, Zirui and Yuan, Jiayi and Jin, Hongye and Zhong, Shaochen and Xu, Zhaozhuo and Braverman, Vladimir and Chen, Beidi and Hu, Xia}, journal={arXiv preprint arXiv:2402.02750}, year={2024} }
我们欢迎研究社区为改进 KIVI 做出贡献。如果您有任何想法或想要报告错误,请 开启一个 issue 或提交 pull request。
该代码根据 MIT 许可证发布。


全球首个AI音乐社区
音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承 载人文表达。


阿里Qoder团队推出的桌面端AI智能体
QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。


一站式搞定所有学习需求
不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。


为AI短剧协作而生
专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。


能听懂你表达的视频模型
Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。


国内直接访问,限时3折
输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神 器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号