KIVI

KIVI

高效2比特KV缓存量化算法提升大型语言模型性能

KIVI是一种创新的2比特KV缓存量化算法,无需模型微调即可优化大型语言模型的内存使用。该算法对键缓存按通道、值缓存按令牌进行量化,适用于Llama-2、Falcon和Mistral等模型。KIVI在保持模型质量的同时,将峰值内存使用降低2.6倍,批处理大小提升4倍,推理吞吐量增加2.35至3.47倍。其硬件友好设计有效缓解了大型语言模型推理中的速度和内存瓶颈问题。

KIVIKV缓存量化LLM内存优化推理加速Github开源项目

KIVI:用于KV缓存的无需调优的非对称2位量化

《KIVI:用于KV缓存的无需调优的非对称2位量化》的实现

更新

  • [2024.06.07]:🎉 KIVI 在很大程度上启发了 HuggingFace Transformers 的 KV 缓存量化
  • [2024.06.06]:(测试版)我们在 develop 分支中对代码库进行了广泛的优化,以减少 KIVI 的延迟。请注意,您需要重新安装我们在 quant 文件夹下的 CUDA 实现。我们将很快发布一篇博客,详细介绍优化内容。
  • [2024.05.01]:🎉 KIVI 已被 ICML 2024 接收!维也纳见!
  • [2024.04.12]:我们添加了对 Mistral 模型系列的支持。LongChat-7b-v1.5-32K 和 Mistral-7B-Instruct-v0.2 在 LongBench 的 15 个任务上的性能可以在 long_bench.md 中找到。
  • [2024.04.05]:我们发布了使用 LM-Eval 复现 CoQA/TruthfulQA/GSM8K 结果的代码。请查看 lmeval 分支的 README。
  • [2024.04.04]:🔥🔥我们添加了一个新的 5 位数密钥示例,上下文长度为 12k,以展示 2 位 KIVI 在长上下文场景下的性能。
  • [2024.04.04]:(测试版)我们在预填充阶段为 KIVI 添加了 flash-attention 支持。
  • [2024.04.03]:我们添加了一个新的 5-shot GSM8K 示例,展示了带有 32 个全精度 token 的 2/4 位 KIVI 的性能。
  • [2024.02.05]:KIVI 第 2 版发布在 arXiv 上。
  • [2024.02.03]:KIVI 代码发布。
  • [2023.12.29]:KIVI 第 1 版发布在 researchgate 上。

概述

KIVI 是一种新的即插即用的 2 位 KV 缓存量化算法,无需任何微调。该算法通过对每个通道的键缓存和每个 token 的值缓存进行 2 位量化来优化内存使用。KIVI 的硬件友好设计允许 Llama-2、Falcon 和 Mistral 等 LLM 在保持可比质量水平的同时,将峰值内存使用减少 2.6 倍。这使得批量大小可以增加到 4 倍,并在实际 LLM 推理工作负载中显著提高吞吐量 2.35 到 3.47 倍,有效解决了速度和内存使用的瓶颈问题。

KIVI 量化方案示意图:每通道键缓存和每 token 值缓存。

KIVI 算法在推理预填充和解码阶段的示意图:

如何使用 KIVI

设置

安装所需包:

conda create -n kivi python=3.10 conda activate kivi pip install --upgrade pip # 启用 PEP 660 支持 pip install -e .

然后安装我们的 CUDA 实现:

cd quant && pip install -e .

示例

使用 KIVI 加载模型:(例如,Llama-2-7b)

# 使用 KIVI 的 LLaMA 模型 import torch import os from models.llama_kivi import LlamaForCausalLM_KIVI from transformers import LlamaConfig, AutoTokenizer config = LlamaConfig.from_pretrained("meta-llama/Llama-2-7b-hf") config.k_bits = K_BITS # 当前支持 KV 缓存的 2/4 位 config.v_bits = V_BITS # 当前支持 KV 缓存的 2/4 位 config.group_size = GROUP_SIZE config.residual_length = RESIDUAL_LENGTH # 最近的 fp16 token 数量 CACHE_DIR = PATH_TO_YOUR_SAVE_DIR model = LlamaForCausalLM_KIVI.from_pretrained( pretrained_model_name_or_path='meta-llama/Llama-2-7b-hf', config=config, cache_dir=CACHE_DIR, torch_dtype=torch.float16, low_cpu_mem_usage=True, device_map="auto", ) tokenizer = AutoTokenizer.from_pretrained( 'meta-llama/Llama-2-7b-hf', use_fast=False, trust_remote_code=True, tokenizer_type='llama') # 推理 # 例如,model.generate(...)

GSM8K 示例

我们使用 GSM8K 作为示例来展示如何使用 KIVI。您可以查看 example.py:

python example.py

密钥检索示例

使用 KIVI 进行密钥检索。您可以查看 long_context_example.py:

python long_context_example.py

在 LongBench 上评估 KIVI

我们目前支持 Llama 和 Mistral 系列模型。我们最近在 Mistral-7B-Instruct-v0.2 和 Longchat-7b-v1.5-32k 上测试了 KIVI。更多详情请查看 long_bench.md。

bash scripts/long_test.sh {GPU_ID} {K_BITS} {V_BITS} {GROUP_LENGTH} {RESIDUAL_LENGTH} {MODEL_NAME} python eval_long_bench.py --model {MODEL} # MODEL 是 pred/ 下的目录名。目前支持 Llama 系列模型和 Mistral 模型。

引用

如果您觉得我们的方法有用,请引用我们的论文。

@article{liu2024kivi, title={KIVI: A Tuning-Free Asymmetric 2bit Quantization for KV Cache}, author={Liu, Zirui and Yuan, Jiayi and Jin, Hongye and Zhong, Shaochen and Xu, Zhaozhuo and Braverman, Vladimir and Chen, Beidi and Hu, Xia}, journal={arXiv preprint arXiv:2402.02750}, year={2024} }

贡献

我们欢迎研究社区为改进 KIVI 做出贡献。如果您有任何想法或想要报告错误,请开启一个 issue 或提交 pull request。

许可证

该代码根据 MIT 许可证发布。

编辑推荐精选

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多