使用LoRA方法在单个16G GPU上微调LLaMA模型

RayRay
LLaMA微调GPUVicuna语料库Github开源项目

llama-lora-fine-tuning

引言

大型语言模型(LLM)如LLaMA的微调一直是自然语言处理领域的一个热点话题。然而,由于这类模型参数量巨大,传统的微调方法往往需要强大的硬件支持。本文将介绍如何使用LoRA(Low-Rank Adaptation)方法,在单个16G GPU上对LLaMA模型进行高效微调,使得普通研究者也能参与到LLM的优化中来。

LoRA微调方法概述

LoRA是一种参数高效的微调技术,它通过只训练一小部分新增的低秩矩阵来适应下游任务,而保持预训练模型的大部分参数不变。这种方法大大降低了计算和内存需求,使得在有限资源下微调大型模型成为可能。

本项目基于FastChat,修改了LoRA训练代码,使用shareGPT语料库在16G显存的GPU上进行微调,内存占用约13G。主要技术要点包括:

  1. 使用LoRA方法只训练部分参数
  2. 采用半精度的llama-7b-hf作为基础模型
  3. 使用load_in_8bit加载基础模型
  4. 使用peft技术进行微调
  5. 使用bitsandbytes加速训练

环境配置

在开始微调之前,需要先配置好相关环境:

  1. 操作系统:centos或ubuntu
  2. GPU:NVIDIA P100或T4,16G及以上显存
  3. CUDA和conda环境

具体安装步骤如下:

  1. 克隆项目代码
git clone https://github.com/git-cloner/llama-lora-fine-tuning
cd llama-lora-fine-tuning
  1. 安装依赖包
conda create -n llama-lora python=3.10
conda activate llama-lora
pip3 install -r requirements.txt
  1. 安装其他必要组件,如pkg-config和libicu

准备LLaMA模型

微调需要使用LLaMA模型作为基础。你可以下载原始模型并转换为半精度,或直接下载转换好的半精度模型。

  1. 下载LLaMA模型
python -m llama.download --model_size 7B
  1. 转换为Hugging Face格式
python3 ./convert_llama_weights_to_hf.py --input_dir ./pyllama_data --model_size 7B --output_dir ./pyllama_data/output/7B

准备语料库

高质量的训练数据对模型微调至关重要。本项目使用shareGPT语料库,具体步骤如下:

  1. 下载shareGPT语料库
  2. 合并语料文件
  3. 将HTML转换为Markdown格式
  4. 移除不需要的语言(可选)
  5. 将长对话拆分成短对话

这些步骤可以通过项目提供的Python脚本完成。

模型微调

准备好模型和数据后,就可以开始微调过程:

CUDA_VISIBLE_DEVICES=0,1 \ deepspeed --num_gpus=2 fastchat/train/train_lora.py \ --deepspeed ./deepspeed-config.json \ --lora_r 8 \ --lora_alpha 16 \ --lora_dropout 0.05 \ --model_name_or_path ./pyllama_data/output/7B \ --data_path ./data/sharegpt_clean_split.json \ --fp16 True \ --output_dir ./output \ --num_train_epochs 1 \ --per_device_train_batch_size 14 \ --per_device_eval_batch_size 14 \ --gradient_accumulation_steps 1 \ --evaluation_strategy "no" \ --save_strategy "steps" \ --save_steps 2400 \ --save_total_limit 5 \ --learning_rate 2e-5 \ --weight_decay 0. \n --warmup_ratio 0.03 \ --lr_scheduler_type "cosine" \ --logging_steps 1 \ --model_max_length 512 \ --gradient_checkpointing True

在P100(16G)上微调时,内存占用约13.5G。单轮训练需要120小时左右,约5天时间。model_max_length参数会影响训练时间,设置为1024时训练时间约为2048的一半,但可能影响推理效果。

如果使用A100 GPU,单卡微调只需约16小时。

测试微调后的模型

微调完成后,trained LoRa peft模型包含adapter_config.json、adapter_model.bin和trainer_state.json三个文件。可以使用以下命令测试模型:

CUDA_VISIBLE_DEVICES=0 python generate.py --base_model ./model/llama-7b --lora_weights ./model/llama-peft

结论

通过LoRA技术,我们成功在单个16G GPU上对LLaMA模型进行了微调。这为研究者和开发者提供了一种经济实惠的方式来定制和优化大型语言模型。尽管训练时间较长,但相比传统方法大大降低了硬件门槛。未来,随着更多高效微调技术的出现,我们有望看到更多创新性的LLM应用。

本项目为LLM微调领域提供了宝贵的实践经验,希望能够启发更多研究者参与到这一激动人心的领域中来。同时,也期待社区能够基于此项目,开发出更多高效、实用的LLM微调方案。

编辑推荐精选

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成热门AI工具AI图像AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具使用教程AI营销产品酷表ChatExcelAI智能客服
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

数据安全AI助手热门AI工具AI辅助写作AI论文工具论文写作智能生成大纲
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

热门AI工具AI办公办公工具智能排版AI生成PPT博思AIPPT海量精品模板AI创作
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

下拉加载更多