以下是基于SOURCE_TEXT内容为LLaMA-Factory项目撰写的介绍文章:
LLaMA-Factory项目介绍
LLaMA-Factory是一个功能强大、易于使用的大型语言模型(LLM)微调工具包。它为用户提供了一站式解决方案,支持多种流行的LLM模型、训练方法和数据集,能够满足不同场景下的模型定制需求。
主要特性
LLaMA-Factory具有以下突出特点:
-
支持多种主流模型:包括LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Qwen2-VL、Yi、Gemma、Baichuan、ChatGLM、Phi等热门LLM。
-
集成多种训练方法:支持(持续)预训练、(多模态)监督微调、奖励建模、PPO、DPO、KTO、ORPO等技术。
-
灵活的资源配置:提供16位全参数微调、冻结微调、LoRA以及2/3/4/5/6/8位量化LoRA(QLoRA)等多种训练模式,可根据硬件资源灵活选择。
-
先进算法支持:集成了GaLore、BAdam、Adam-mini、DoRA、LongLoRA、LLaMA Pro、Mixture-of-Depths、LoRA+、LoftQ、PiSSA等前沿算法。
-
实用训练技巧:支持FlashAttention-2、Unsloth、Liger Kernel、RoPE scaling、NEFTune、rsLoRA等提升训练效率的技巧。
-
实验监控工具:集成了LlamaBoard、TensorBoard、Wandb、MLflow等多种实验监控工具。
-
高效推理能力:提供OpenAI风格的API、Gradio UI以及基于vLLM的命令行界面,支持快速推理。
性能优势
与ChatGLM的P-Tuning方法相比,LLaMA-Factory的LoRA微调在广告文本生成任务上展现出显著优势:
- 训练速度提升至3.7倍
- 更好的Rouge评分
- 通过4位量化技术,进一步提高了GPU内存使用效率
这些优势使LLaMA-Factory成为一个高效且易用的LLM微调工具。
最新更新
LLaMA-Factory持续保持活跃开发,近期主要更新包括:
- 支持从Modelers Hub下载预训练模型和数据集
- 支持微调Qwen2.5系列模型
- 集成Qwen2-VL多模态模型微调
- 引入Liger Kernel以提升训练效率
- 支持Adam-mini优化器
此外,项目还支持了SimPO、KTO等新算法,以及LLaVA-1.5、Mixture-of-Depths等新模型和技术。
使用方法
用户可以通过以下方式开始使用LLaMA-Factory:
- 在Colab上快速体验
- 使用PAI-DSW平台
- 在本地机器上安装使用
- 参考在线文档(持续更新中)
LLaMA-Factory提供了简洁的命令行接口和Web UI,使得模型微调变得简单直观。无论是初学者还是专业研究人员,都能快速上手并充分利用这个强大的工具。
总之,LLaMA-Factory是一个全面、高效、易用的LLM微调框架,为NLP领域的研究和应用提供了有力支持。随着持续的更新迭代,相信它将为更多用户带来便利,推动LLM技术的进步与应用。