双重块注意力技术实现大语言模型上下文窗口扩展
ChunkLlama项目开发了双重块注意力(DCA)技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始长度的8倍以上。DCA可与主流外推技术和高效推理库兼容,支持Llama、Mistral等多种模型。实验表明,应用DCA后的Llama-2/3 70B模型能处理长达100k的上下文,并在长文本任务中表现出色。
双重分块注意力是一种无需训练且有效的方法,可以将大型语言模型(LLMs)的上下文窗口扩展到原始预训练长度的8倍以上。我们将基于Llama的双重分块注意力模型称为ChunkLlama。DCA可以无缝集成(1)流行的外推方法,如位置插值(PI)、NTK感知RoPE和YaRN;(2)广泛使用的内存高效推理库,如FlashAttention和vLLM。
由于在更长序列上进行持续预训练的高成本,此前发布的长上下文模型通常限制在7B/13B的规模。我们证明,通过将DCA应用于Llama-2/3 70B,该模型表现出惊人的外推能力(10万上下文长度),并对实际长上下文任务有很强的理解能力。
(标准自注意力的使用方法)
from flash_decoding_llama import replace_with_flashdecoding
replace_with_flashdecoding(max_prompt_length) # max_prompt_length是最大输入长度,例如131072
模型 | 4k | 8k | 16k | 32k | 64k | 96k | 128k | 160k |
---|---|---|---|---|---|---|---|---|
ChunkLlama3-8b | 9.04 | 8.71 | 8.61 | 8.62 | 8.95 | 9.43 | 10.04 | 10.66 |
ChunkLlama3-70b | 5.36 | 5.16 | 5.14 | 5.14 | 5.21 | 5.32 | 5.40 | 5.45 |
ChunkLlama3-8b在所有文档深度上都达到了100%的检索准确率。我们在基础模型上的少样本结果和对话模型上的零样本结果显示,ChunkLlama3-70b的性能与GPT-4(2023/06/13)和Llama2 Long 70b相当(详细结果)。
作为一种无需训练的方法,只需在原有的Llama2模型推理代码中添加一行:
# `transformers==4.37.2`
from chunkllama_attn_replace import replace_with_chunkllama
# flash解码:flash_decoding_chunkllama import replace_with_chunkllama
replace_with_chunkllama(pretraining_length=4096) # 如果使用Llama3,则pretraining_length=8192
对于其他基础模型:
from chunkllama_attn_replace import replace_with_chunkmistral, replace_with_chunkmixtral from chunkqwen_attn_replace import replace_with_chunkqwen replace_with_chunkmistral(pretraining_length=32768) # Mistral-v0.2 replace_with_chunkmixtral(pretraining_length=32768) # Mixtral MOE模型 replace_with_chunkqwen(pretraining_length=32768) # Qwen 1.5
from transformers import AutoTokenizer, AutoModelForCausalLM from flash_decoding_chunkllama import replace_with_chunkllama # flash解码:from chunkllama_attn_replace import replace_with_chunkllama ##### 添加此行 ##### replace_with_chunkllama(pretraining_length=4096) tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b-hf", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-hf", attn_implementation="flash_attention_2", trust_remote_code=True, torch_dtype=torch.bfloat16) inputs = tokenizer("长...文档\n 问:如何扩展LLMs的上下文窗口?", return_tensors="pt") output_ids = model.generate(**inputs, max_length=128)[0] print(tokenizer.decode(output_ids))
我们在Popular_PDFs
目录中提供了一系列关于LLMs长上下文扩展的有影响力论文。通过使用--pdf
参数,您可以通过ChunkLlama⭐了解该领域的最新进展。
pip install -r requirements.txt pip install flash-attn --no-build-isolation (FlashAttention >= 2.5.0)
下载预训练权重(Extended ctx表示DCA启用的上下文长度)。 | 支持的模型 | 扩展上下文 | |:-----------------------------------------------------------------------------------|:----------:| | 基础模型 | | | Llama-2-7b-hf (4k) | 32k | | Llama-2-13b-hf (4k) | 32k | | Llama-2-70b-hf (4k) | 128k | | Meta-Llama-3-8B (8k) | 96k | | Meta-Llama-3-70B (8k) | 200k+ | | Together的LLaMA-2-7b-32k | 200k | | SFT模型 | | | Llama-2-7b-chat-hf (4k) | 32k | | Llama-2-13b-chat-hf (4k) | 32k | | Llama-2-70b-chat-hf (4k) | 128k | | Meta-Llama-3-8B-Instruct (8k) | 96k | | Meta-Llama-3-70B-Instruct (8k) | 200k+ | | Vicuna-1.5-7b-16k | 200k | | Vicuna-1.5-13b-16k | 200k | | Mixtral 8x7b & Mistral 7b | 200k+ | | Qwen1.5 中文 | 200k |
部署您自己的演示。
我们在run_chunkllama_100k.py
、run_together_200k.py
和run_vicuna_200k.py
中提供了三个如何在流行的LLM上使用DCA的示例。
运行演示:
python run_chunkllama_100k.py --max_length 16000 --scale 13b (7b/13b/70b) --pdf Popular_PDFs/longlora.pdf
如果在处理更长的输入或更大的模型时遇到OOM
问题,我们建议使用张量并行:
deepspeed run_chunkllama_100k_ds.py --max_length 64000 --scale 13b (7b/13b/70b) --pdf Popular_PDFs/longlora.pdf
📌 注意:我们发现,尽管7B模型在长上下文上可以达到较低的困惑度,但它们在实际任务中经常会犯错,包括那些经过微调的版本。因此,我们建议使用更大的13B(ChunkLlama-13b,Chunk-Vicuna-13b)或70B(ChunkLlama-70B)模型以获得更高的准确性。
ChunkLlama可以通过在长对话上进行微调来进一步改进。我们在16k的上下文窗口上,使用之前SFT数据集ShareGPT和AlpacaGPT4的连接对话,对ChunkLlama进行了进一步训练。 我们使用的数据可在这里获得。
cd fine-tune export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 export WANDB_MODE=dryrun python -m torch.distributed.run --nproc_per_node=8 \ train_chunkllama_16k.py \ --model_name_or_path meta-llama/llama-2-7b-chat-hf \ --bf16 \ --output_dir checkpoints/chunkllama-7b-release \ --max_steps 1600 \ --per_device_train_batch_size 1 \ --per_device_eval_batch_size 1 \ --gradient_accumulation_steps 2 \ --evaluation_strategy no \ --save_strategy steps \ --save_steps 400 \ --save_total_limit 2 \ --learning_rate 2e-5 \ --weight_decay 0. \ --warmup_ratio 0.03 \ --lr_scheduler_type "cosine" \ --logging_steps 1 \ --fsdp "full_shard auto_wrap" \ --fsdp_transformer_layer_cls_to_wrap 'LlamaDecoderLayer' \ --tf32 True \ --model_max_length 16384 \ --gradient_checkpointing True \ --lazy_preprocess True \ --pretraining_length 4096
您可以更改--model_name_or_path
、--output_dir
为您自己的目录。在我们的实验中,我们直接训练了Llama2的聊天版本,您也可以使用其基础版本。
本节包含在不同类型的长上下文任务上验证ChunkLlama的数据和代码。
cd ppl python test_ppl.py --seq_len 16384 --scale 13b (7b/13b/70b) --data_path pg19_llama2.validation.bin
其中--seq_len 16384
表示输入提示的长度。我们使用了由longlora处理的PG19验证集的标记化版本。原始数据和标记化数据在ppl
文件夹中。
我们提供了一种测试密钥检索准确性的方法。例如,
cd passkey python test_passkey.py --seq_len 16384 --scale 13b (7b/13b/70b)
我们提供了一种测试大海捞针准确性的方法。例如,
cd need_in_a_haystack # 以下命令将生成一个jsonl文件 python retrieve_needle.py --max_length 192k --model mistral --pretraining_length 32384 # 对于Llama:python retrieve_needle.py --max_length 192k --model Llama2 --pretraining_length 4096 # 生成图表 python draw.py
少样本学习的实验设置与Llama2 Long相同。我们使用4个流行的长文本基准测试:NarrativeQA、QMSum、Qasper和Quality。 我们还发布了包含上下文示例的数据集few-shot-data。我们报告了它们在验证集上的结果。上下文示例是从训练集中随机选择的。
cd few-shot python test_few_shot.py --data_path data/few_shot_quality.jsonl --max_length 16k --scale 13b
其中--data_path
表示数据集的路径,假设数据保存在few-shot/data/
中。
生成结果将保存到Predictions/Chunkllama-13b16k/few_shot_quality.json
我们使用Scrolls提供的验证脚本来获取结果:
python auto_eval.py --dataset_name quality --metrics_output_dir ./ --predictions Predictions/Chunkllama-13b16k/few_shot_quality.json --test_data_file data/few_shot_quality.jsonl
我们还在零样本学习任务上测试了我们的方法在Llama2对话版本上的表现。 考虑到公平评估开放式任务的挑战,我们从L-Eval中选择了4个封闭式任务,输入长度范围从3k到27个标记不等。
cd zero-shot python test_zero_shot.py --task_path Closed-ended-tasks/coursera.jsonl --max_length 16k --scale 13b
实验设置和评估脚本与L-Eval官方仓库中的相同。
python Evaluation/auto_eval.py --pred_file Predictions/Chunkllama-13b16k/coursera.jsonl
PG19验证集上的困惑度:
模型 | 4k | 8k | 16k | 32k | 64k | 96k | 128k | 160k |
---|---|---|---|---|---|---|---|---|
Llama3-8b | 9.04 | 8.71 | 78.88 | >100 | >100 | >100 | >100 | >100 |
ChunkLlama3-8b | 9.04 | 8.71 | 8.61 | 8.62 | 8.95 | 9.43 | 10.04 | 10.66 |
Llama3-70b | 5.36 | 5.16 | >100 | >100 | >100 | >100 | >100 | >100 |
ChunkLlama3-70b | 5.36 | 5.16 | 5.14 | 5.14 | 5.21 | 5.32 | 5.40 | 5.45 |
4个研究基准测试上的少样本结果:
模型 | NarrativeQA(0-shot) | Qasper(2-shot) | QuALITY(2-shot) | QMSum(1-shot) |
---|---|---|---|---|
ChunkLlama3-8b | 27.4 | 30.5 | 52.6 | 15.4 |
Llama2 Long-7b | 21.9 | 27.8 | 43.2 | 14.9 |
ChunkLlama3-70b | 33.7 | 33.1 | 75.4 | 16.0 |
Llama2 Long-70b | 30.9 | 35.7 | 79.7 | 16.5 |
L-Eval上的零样本结果(使用对话模型):
模型 | TOEFL | QuALITY | Coursera | SFiction |
---|---|---|---|---|
ChunkLlama3-8b | 83.27 | 63.86 | 56.24 | 70.31 |
ChunkLlama3-70b | 84.75 | 82.17 | 76.88 | 75.78 |
GPT4-32k (2023) | 84.38 | 82.17 | 75.58 | 74.99 |
我们衷心感谢以下人士(作品)为ChunkLlama提供的帮助:
@misc{an2024trainingfree,
title={Training-Free Long-Context Scaling of Large Language Models},
author={Chenxin An and Fei Huang and Jun Zhang and Shansan Gong and Xipeng Qiu and Chang Zhou and Lingpeng Kong},
year={2024},
eprint={2402.17463},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。