ChunkLlama

ChunkLlama

双重块注意力技术实现大语言模型上下文窗口扩展

ChunkLlama项目开发了双重块注意力(DCA)技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始长度的8倍以上。DCA可与主流外推技术和高效推理库兼容,支持Llama、Mistral等多种模型。实验表明,应用DCA后的Llama-2/3 70B模型能处理长达100k的上下文,并在长文本任务中表现出色。

ChunkLlama大语言模型长上下文注意力机制无需训练Github开源项目
<p align="center" width="100%"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/79f29495-00c4-425e-a809-0b2e1fe779d2.png" alt="chunkllama" style="width: 90%; min-width: 300px; display: block; margin: auto;"> </p>

大型语言模型的无需训练的长上下文扩展

Huggingface模型 数据 论文

概述

双重分块注意力是一种无需训练且有效的方法,可以将大型语言模型(LLMs)的上下文窗口扩展到原始预训练长度的8倍以上。我们将基于Llama的双重分块注意力模型称为ChunkLlama。DCA可以无缝集成(1)流行的外推方法,如位置插值(PI)NTK感知RoPEYaRN;(2)广泛使用的内存高效推理库,如FlashAttentionvLLM

由于在更长序列上进行持续预训练的高成本,此前发布的长上下文模型通常限制在7B/13B的规模。我们证明,通过将DCA应用于Llama-2/3 70B,该模型表现出惊人的外推能力(10万上下文长度),并对实际长上下文任务有很强的理解能力。

更新

  • 我们添加了Flash Decoding以实现带KV缓存的高效推理。单个80G A100 GPU可以支持Llama2 7B在9万输入长度下的KV缓存推理,Llama3 8B则可支持16万。标准注意力模型的Flash解码也可在此处获得。
(标准自注意力的使用方法)
from flash_decoding_llama import replace_with_flashdecoding
replace_with_flashdecoding(max_prompt_length) # max_prompt_length是最大输入长度,例如131072
  • 我们添加了ChunkLlama3的结果。Llama3使用8k预训练上下文,与Llama2具有相同的架构,因此无需更改代码。以下是在PG19上的语言建模结果:
模型4k8k16k32k64k96k128k160k
ChunkLlama3-8b9.048.718.618.628.959.4310.0410.66
ChunkLlama3-70b5.365.165.145.145.215.325.405.45

ChunkLlama3-8b在所有文档深度上都达到了100%的检索准确率。我们在基础模型上的少样本结果和对话模型上的零样本结果显示,ChunkLlama3-70b的性能与GPT-4(2023/06/13)和Llama2 Long 70b相当(详细结果)。

  • 我们添加了可扩展到20万+上下文的Mistral/Mixtral和Qwen
<p align="center" width="100%"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/60637e2f-f635-4720-a6a3-d564e50dec27.png" alt="mistral_needle" style="width: 80%; min-width: 300px; display: block; margin: auto;"> </p>

🚀快速开始

作为一种无需训练的方法,只需在原有的Llama2模型推理代码中添加一行:

# `transformers==4.37.2`
from chunkllama_attn_replace import replace_with_chunkllama 
# flash解码:flash_decoding_chunkllama import replace_with_chunkllama
replace_with_chunkllama(pretraining_length=4096) # 如果使用Llama3,则pretraining_length=8192

对于其他基础模型:

from chunkllama_attn_replace import replace_with_chunkmistral, replace_with_chunkmixtral from chunkqwen_attn_replace import replace_with_chunkqwen replace_with_chunkmistral(pretraining_length=32768) # Mistral-v0.2 replace_with_chunkmixtral(pretraining_length=32768) # Mixtral MOE模型 replace_with_chunkqwen(pretraining_length=32768) # Qwen 1.5

完整推理代码

from transformers import AutoTokenizer, AutoModelForCausalLM from flash_decoding_chunkllama import replace_with_chunkllama # flash解码:from chunkllama_attn_replace import replace_with_chunkllama ##### 添加此行 ##### replace_with_chunkllama(pretraining_length=4096) tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b-hf", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-hf", attn_implementation="flash_attention_2", trust_remote_code=True, torch_dtype=torch.bfloat16) inputs = tokenizer("长...文档\n 问:如何扩展LLMs的上下文窗口?", return_tensors="pt") output_ids = model.generate(**inputs, max_length=128)[0] print(tokenizer.decode(output_ids))

与长篇PDF文件对话

我们在Popular_PDFs目录中提供了一系列关于LLMs长上下文扩展的有影响力论文。通过使用--pdf参数,您可以通过ChunkLlama⭐了解该领域的最新进展。

<p align = "center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/8e6cb4ec-e5ff-4db1-bbb3-f57a339132a7.gif" width="95%" alt="examples" align=center loop=infinite/> </p> 所有这些论文都是最近发布的,不可能在预训练中使用。

使用要求

  1. 准备环境。
pip install -r requirements.txt pip install flash-attn --no-build-isolation (FlashAttention >= 2.5.0)
  1. 下载预训练权重(Extended ctx表示DCA启用的上下文长度)。 | 支持的模型 | 扩展上下文 | |:-----------------------------------------------------------------------------------|:----------:| | 基础模型 | | | Llama-2-7b-hf (4k) | 32k | | Llama-2-13b-hf (4k) | 32k | | Llama-2-70b-hf (4k) | 128k | | Meta-Llama-3-8B (8k) | 96k | | Meta-Llama-3-70B (8k) | 200k+ | | Together的LLaMA-2-7b-32k | 200k | | SFT模型 | | | Llama-2-7b-chat-hf (4k) | 32k | | Llama-2-13b-chat-hf (4k) | 32k | | Llama-2-70b-chat-hf (4k) | 128k | | Meta-Llama-3-8B-Instruct (8k) | 96k | | Meta-Llama-3-70B-Instruct (8k) | 200k+ | | Vicuna-1.5-7b-16k | 200k | | Vicuna-1.5-13b-16k | 200k | | Mixtral 8x7b & Mistral 7b | 200k+ | | Qwen1.5 中文 | 200k |

  2. 部署您自己的演示。 我们在run_chunkllama_100k.pyrun_together_200k.pyrun_vicuna_200k.py中提供了三个如何在流行的LLM上使用DCA的示例。

运行演示:

python run_chunkllama_100k.py --max_length 16000 --scale 13b (7b/13b/70b) --pdf Popular_PDFs/longlora.pdf

如果在处理更长的输入或更大的模型时遇到OOM问题,我们建议使用张量并行:

deepspeed run_chunkllama_100k_ds.py --max_length 64000 --scale 13b (7b/13b/70b) --pdf Popular_PDFs/longlora.pdf

📌 注意:我们发现,尽管7B模型在长上下文上可以达到较低的困惑度,但它们在实际任务中经常会犯错,包括那些经过微调的版本。因此,我们建议使用更大的13B(ChunkLlama-13b,Chunk-Vicuna-13b)或70B(ChunkLlama-70B)模型以获得更高的准确性。

微调

ChunkLlama可以通过在长对话上进行微调来进一步改进。我们在16k的上下文窗口上,使用之前SFT数据集ShareGPT和AlpacaGPT4的连接对话,对ChunkLlama进行了进一步训练。 我们使用的数据可在这里获得。

cd fine-tune export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 export WANDB_MODE=dryrun python -m torch.distributed.run --nproc_per_node=8 \ train_chunkllama_16k.py \ --model_name_or_path meta-llama/llama-2-7b-chat-hf \ --bf16 \ --output_dir checkpoints/chunkllama-7b-release \ --max_steps 1600 \ --per_device_train_batch_size 1 \ --per_device_eval_batch_size 1 \ --gradient_accumulation_steps 2 \ --evaluation_strategy no \ --save_strategy steps \ --save_steps 400 \ --save_total_limit 2 \ --learning_rate 2e-5 \ --weight_decay 0. \ --warmup_ratio 0.03 \ --lr_scheduler_type "cosine" \ --logging_steps 1 \ --fsdp "full_shard auto_wrap" \ --fsdp_transformer_layer_cls_to_wrap 'LlamaDecoderLayer' \ --tf32 True \ --model_max_length 16384 \ --gradient_checkpointing True \ --lazy_preprocess True \ --pretraining_length 4096

您可以更改--model_name_or_path--output_dir为您自己的目录。在我们的实验中,我们直接训练了Llama2的聊天版本,您也可以使用其基础版本。

实验

本节包含在不同类型的长上下文任务上验证ChunkLlama的数据和代码。

在PG19上的困惑度验证

cd ppl python test_ppl.py --seq_len 16384 --scale 13b (7b/13b/70b) --data_path pg19_llama2.validation.bin

其中--seq_len 16384表示输入提示的长度。我们使用了由longlora处理的PG19验证集的标记化版本。原始数据和标记化数据在ppl文件夹中。

密钥检索

我们提供了一种测试密钥检索准确性的方法。例如,

cd passkey python test_passkey.py --seq_len 16384 --scale 13b (7b/13b/70b)

大海捞针

我们提供了一种测试大海捞针准确性的方法。例如,

cd need_in_a_haystack # 以下命令将生成一个jsonl文件 python retrieve_needle.py --max_length 192k --model mistral --pretraining_length 32384 # 对于Llama:python retrieve_needle.py --max_length 192k --model Llama2 --pretraining_length 4096 # 生成图表 python draw.py

少样本学习

少样本学习的实验设置与Llama2 Long相同。我们使用4个流行的长文本基准测试:NarrativeQA、QMSum、Qasper和Quality。 我们还发布了包含上下文示例的数据集few-shot-data。我们报告了它们在验证集上的结果。上下文示例是从训练集中随机选择的。

cd few-shot python test_few_shot.py --data_path data/few_shot_quality.jsonl --max_length 16k --scale 13b

其中--data_path表示数据集的路径,假设数据保存在few-shot/data/中。 生成结果将保存到Predictions/Chunkllama-13b16k/few_shot_quality.json

我们使用Scrolls提供的验证脚本来获取结果:

python auto_eval.py --dataset_name quality --metrics_output_dir ./ --predictions Predictions/Chunkllama-13b16k/few_shot_quality.json --test_data_file data/few_shot_quality.jsonl

零样本学习

我们还在零样本学习任务上测试了我们的方法在Llama2对话版本上的表现。 考虑到公平评估开放式任务的挑战,我们从L-Eval中选择了4个封闭式任务,输入长度范围从3k到27个标记不等。

cd zero-shot python test_zero_shot.py --task_path Closed-ended-tasks/coursera.jsonl --max_length 16k --scale 13b

实验设置和评估脚本与L-Eval官方仓库中的相同。

python Evaluation/auto_eval.py --pred_file Predictions/Chunkllama-13b16k/coursera.jsonl

ChunkLlama3

PG19验证集上的困惑度:

模型4k8k16k32k64k96k128k160k
Llama3-8b9.048.7178.88>100>100>100>100>100
ChunkLlama3-8b9.048.718.618.628.959.4310.0410.66
Llama3-70b5.365.16>100>100>100>100>100>100
ChunkLlama3-70b5.365.165.145.145.215.325.405.45

4个研究基准测试上的少样本结果:

模型NarrativeQA(0-shot)Qasper(2-shot)QuALITY(2-shot)QMSum(1-shot)
ChunkLlama3-8b27.430.552.615.4
Llama2 Long-7b21.927.843.214.9
ChunkLlama3-70b33.733.175.416.0
Llama2 Long-70b30.935.779.716.5

L-Eval上的零样本结果(使用对话模型):

模型TOEFLQuALITYCourseraSFiction
ChunkLlama3-8b83.2763.8656.2470.31
ChunkLlama3-70b84.7582.1776.8875.78
GPT4-32k (2023)84.3882.1775.5874.99

致谢

我们衷心感谢以下人士(作品)为ChunkLlama提供的帮助:

  • 我们从苏剑林的博客中获得了有用的背景知识和见解。我们建议感兴趣的研究人员阅读他的博客,以更好地理解大语言模型的长文本扩展。
  • 本工作基于LLaMA2作为预训练模型。我们还使用了Vicuna、Together的Llama2分支和CodeLlama。
  • 我们使用了LongChat的代码进行微调过程,并使用了longlora的代码验证我们的方法。
  • 我们感谢陈昱康的帮助和宝贵讨论。
  • 我们感谢闫航对本工作的宝贵意见。

引用

@misc{an2024trainingfree,
      title={Training-Free Long-Context Scaling of Large Language Models}, 
      author={Chenxin An and Fei Huang and Jun Zhang and Shansan Gong and Xipeng Qiu and Chang Zhou and Lingpeng Kong},
      year={2024},
      eprint={2402.17463},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

许可证

  • ChunkLlama根据Apache License 2.0获得许可。这意味着它要求保留版权和许可声明。
  • 数据和权重根据CC-BY-NC 4.0许可证提供。它们仅被许可用于研究目的,并且仅允许非商业用途。使用该数据集训练的模型不应用于研究目的以外的用途。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘��文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多