
双重块注意力技术实现大语言模型上下文窗口扩展
ChunkLlama项目开发了双重块注意力(DCA)技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始长度的8倍以上。DCA可与主流外推技术和高效推理库兼容,支持Llama、Mistral等多种模型。实验表明,应用DCA后的Llama-2/3 70B模型能处理长达100k的上下文,并在长文本任务中表现出色。
双重分块注意力是一种无需训练且有效的方法,可以将大型语言模型(LLMs)的上下文窗口扩展到原始预训练长度的8倍以上。我们将基于Llama的双重分块注意力模型称为ChunkLlama。DCA可以无缝集成(1)流行的外推方法,如位置插值(PI)、NTK感知RoPE和YaRN;(2)广泛使用的内存高效推理库,如FlashAttention和vLLM。
由于在更长序列上进行持续预训练的高成本,此前发布的长上下文模型通常限制在7B/13B的规模。我们证明,通过将DCA应用于Llama-2/3 70B,该模型表现出惊人的外推能力(10万上下文长度),并对实际长上下文任务有很强的理解能力。
(标准自注意力的使用方法)
from flash_decoding_llama import replace_with_flashdecoding
replace_with_flashdecoding(max_prompt_length) # max_prompt_length是最大输入长度,例如131072
| 模型 | 4k | 8k | 16k | 32k | 64k | 96k | 128k | 160k |
|---|---|---|---|---|---|---|---|---|
| ChunkLlama3-8b | 9.04 | 8.71 | 8.61 | 8.62 | 8.95 | 9.43 | 10.04 | 10.66 |
| ChunkLlama3-70b | 5.36 | 5.16 | 5.14 | 5.14 | 5.21 | 5.32 | 5.40 | 5.45 |
ChunkLlama3-8b在所有文档深度上都达到了100%的检索准确率。我们在基础模型上的少样本结果和对话模型上的零样本结果显示,ChunkLlama3-70b的性能与GPT-4(2023/06/13)和Llama2 Long 70b相当(详细结果)。
作为一种无需训练的方法,只需在原有的Llama2模型推理代码中添加一行:
# `transformers==4.37.2`
from chunkllama_attn_replace import replace_with_chunkllama
# flash解码:flash_decoding_chunkllama import replace_with_chunkllama
replace_with_chunkllama(pretraining_length=4096) # 如果使用Llama3,则pretraining_length=8192
对于其他基础模型:
from chunkllama_attn_replace import replace_with_chunkmistral, replace_with_chunkmixtral from chunkqwen_attn_replace import replace_with_chunkqwen replace_with_chunkmistral(pretraining_length=32768) # Mistral-v0.2 replace_with_chunkmixtral(pretraining_length=32768) # Mixtral MOE模型 replace_with_chunkqwen(pretraining_length=32768) # Qwen 1.5
from transformers import AutoTokenizer, AutoModelForCausalLM from flash_decoding_chunkllama import replace_with_chunkllama # flash解码:from chunkllama_attn_replace import replace_with_chunkllama ##### 添加此行 ##### replace_with_chunkllama(pretraining_length=4096) tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b-hf", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-hf", attn_implementation="flash_attention_2", trust_remote_code=True, torch_dtype=torch.bfloat16) inputs = tokenizer("长...文档\n 问:如何扩展LLMs的上下文窗口?", return_tensors="pt") output_ids = model.generate(**inputs, max_length=128)[0] print(tokenizer.decode(output_ids))
我们在Popular_PDFs目录中提供了一系列关于LLMs长上下文扩展的有影响力论文。通过使用--pdf参数,您可以通过ChunkLlama⭐了解该领域的最新进展。
pip install -r requirements.txt pip install flash-attn --no-build-isolation (FlashAttention >= 2.5.0)
下载预训练权重(Extended ctx表示DCA启用的上下文长度)。 | 支持的模型 | 扩展上下文 | |:-----------------------------------------------------------------------------------|:----------:| | 基础模型 | | | Llama-2-7b-hf (4k) | 32k | | Llama-2-13b-hf (4k) | 32k | | Llama-2-70b-hf (4k) | 128k | | Meta-Llama-3-8B (8k) | 96k | | Meta-Llama-3-70B (8k) | 200k+ | | Together的LLaMA-2-7b-32k | 200k | | SFT模型 | | | Llama-2-7b-chat-hf (4k) | 32k | | Llama-2-13b-chat-hf (4k) | 32k | | Llama-2-70b-chat-hf (4k) | 128k | | Meta-Llama-3-8B-Instruct (8k) | 96k | | Meta-Llama-3-70B-Instruct (8k) | 200k+ | | Vicuna-1.5-7b-16k | 200k | | Vicuna-1.5-13b-16k | 200k | | Mixtral 8x7b & Mistral 7b | 200k+ | | Qwen1.5 中文 | 200k |
部署您自己的演示。
我们在run_chunkllama_100k.py、run_together_200k.py和run_vicuna_200k.py中提供了三个如何在流行的LLM上使用DCA的示例。
运行演示:
python run_chunkllama_100k.py --max_length 16000 --scale 13b (7b/13b/70b) --pdf Popular_PDFs/longlora.pdf
如果在处理更长的输入或更大的模型时遇到OOM问题,我们建议使用张量并行:
deepspeed run_chunkllama_100k_ds.py --max_length 64000 --scale 13b (7b/13b/70b) --pdf Popular_PDFs/longlora.pdf
📌 注意:我们发现,尽管7B模型在长上下文上可以达到较低的困惑度,但它们在实际任务中经常会犯错,包括那些经过微调的版本。因此,我们建议使用更大的13B(ChunkLlama-13b,Chunk-Vicuna-13b)或70B(ChunkLlama-70B)模型以获得更高的准确性。
ChunkLlama可以通过在长对话上进行微调来进一步改进。我们在16k的上下文窗口上,使用之前SFT数据集ShareGPT和AlpacaGPT4的连接对话,对ChunkLlama进行了进一步训练。 我们使用的数据可在这里获得。
cd fine-tune export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 export WANDB_MODE=dryrun python -m torch.distributed.run --nproc_per_node=8 \ train_chunkllama_16k.py \ --model_name_or_path meta-llama/llama-2-7b-chat-hf \ --bf16 \ --output_dir checkpoints/chunkllama-7b-release \ --max_steps 1600 \ --per_device_train_batch_size 1 \ --per_device_eval_batch_size 1 \ --gradient_accumulation_steps 2 \ --evaluation_strategy no \ --save_strategy steps \ --save_steps 400 \ --save_total_limit 2 \ --learning_rate 2e-5 \ --weight_decay 0. \ --warmup_ratio 0.03 \ --lr_scheduler_type "cosine" \ --logging_steps 1 \ --fsdp "full_shard auto_wrap" \ --fsdp_transformer_layer_cls_to_wrap 'LlamaDecoderLayer' \ --tf32 True \ --model_max_length 16384 \ --gradient_checkpointing True \ --lazy_preprocess True \ --pretraining_length 4096
您可以更改--model_name_or_path、--output_dir为您自己的目录。在我们的实验中,我们直接训练了Llama2的聊天版本,您也可以使用其基础版本。
本节包含在不同类型的长上下文任务上验证ChunkLlama的数据和代码。
cd ppl python test_ppl.py --seq_len 16384 --scale 13b (7b/13b/70b) --data_path pg19_llama2.validation.bin
其中--seq_len 16384表示输入提示的长度。我们使用了由longlora处理的PG19验证集的标记化版本。原始数据和标记化数据在ppl文件夹中。
我们提供了一种测试密钥检索准确性的方法。例如,
cd passkey python test_passkey.py --seq_len 16384 --scale 13b (7b/13b/70b)
我们提供了一种测试大海捞针准确性的方法。例如,
cd need_in_a_haystack # 以下命令将生成一个jsonl文件 python retrieve_needle.py --max_length 192k --model mistral --pretraining_length 32384 # 对于Llama:python retrieve_needle.py --max_length 192k --model Llama2 --pretraining_length 4096 # 生成图表 python draw.py
少样本学习的实验设置与Llama2 Long相同。我们使用4个流行的长文本基准测试:NarrativeQA、QMSum、Qasper和Quality。 我们还发布了包含上下文示例的数据集few-shot-data。我们报告了它们在验证集上的结果。上下文示例是从训练集中随机选择的。
cd few-shot python test_few_shot.py --data_path data/few_shot_quality.jsonl --max_length 16k --scale 13b
其中--data_path表示数据集的路径,假设数据保存在few-shot/data/中。
生成结果将保存到Predictions/Chunkllama-13b16k/few_shot_quality.json
我们使用Scrolls提供的验证脚本来获取结果:
python auto_eval.py --dataset_name quality --metrics_output_dir ./ --predictions Predictions/Chunkllama-13b16k/few_shot_quality.json --test_data_file data/few_shot_quality.jsonl
我们还在零样本学习任务上测试了我们的方法在Llama2对话版本上的表现。 考虑到公平评估开放式任务的挑战,我们从L-Eval中选择了4个封闭式任务,输入长度范围从3k到27个标记不等。
cd zero-shot python test_zero_shot.py --task_path Closed-ended-tasks/coursera.jsonl --max_length 16k --scale 13b
实验设置和评估脚本与L-Eval官方仓库中的相同。
python Evaluation/auto_eval.py --pred_file Predictions/Chunkllama-13b16k/coursera.jsonl
PG19验证集上的困惑度:
| 模型 | 4k | 8k | 16k | 32k | 64k | 96k | 128k | 160k |
|---|---|---|---|---|---|---|---|---|
| Llama3-8b | 9.04 | 8.71 | 78.88 | >100 | >100 | >100 | >100 | >100 |
| ChunkLlama3-8b | 9.04 | 8.71 | 8.61 | 8.62 | 8.95 | 9.43 | 10.04 | 10.66 |
| Llama3-70b | 5.36 | 5.16 | >100 | >100 | >100 | >100 | >100 | >100 |
| ChunkLlama3-70b | 5.36 | 5.16 | 5.14 | 5.14 | 5.21 | 5.32 | 5.40 | 5.45 |
4个研究基准测试上的少样本结果:
| 模型 | NarrativeQA(0-shot) | Qasper(2-shot) | QuALITY(2-shot) | QMSum(1-shot) |
|---|---|---|---|---|
| ChunkLlama3-8b | 27.4 | 30.5 | 52.6 | 15.4 |
| Llama2 Long-7b | 21.9 | 27.8 | 43.2 | 14.9 |
| ChunkLlama3-70b | 33.7 | 33.1 | 75.4 | 16.0 |
| Llama2 Long-70b | 30.9 | 35.7 | 79.7 | 16.5 |
L-Eval上的零样本结果(使用对话模型):
| 模型 | TOEFL | QuALITY | Coursera | SFiction |
|---|---|---|---|---|
| ChunkLlama3-8b | 83.27 | 63.86 | 56.24 | 70.31 |
| ChunkLlama3-70b | 84.75 | 82.17 | 76.88 | 75.78 |
| GPT4-32k (2023) | 84.38 | 82.17 | 75.58 | 74.99 |
我们衷心感谢以下人士(作品)为ChunkLlama提供的帮助:
@misc{an2024trainingfree,
title={Training-Free Long-Context Scaling of Large Language Models},
author={Chenxin An and Fei Huang and Jun Zhang and Shansan Gong and Xipeng Qiu and Chang Zhou and Lingpeng Kong},
year={2024},
eprint={2402.17463},
archivePrefix={arXiv},
primaryClass={cs.CL}
}


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号