
ChatGLM-LoRA-RLHF-PyTorch是一个开源项目,旨在提供一个完整的流程,在消费级硬件上使用LoRA和RLHF技术对ChatGLM大语言模型进行微调。该项目实现了基于ChatGLM架构的RLHF(基于人类反馈的强化学习),可以看作是ChatGLM版本的ChatGPT。
项目推荐的运行环境如下:
GPU: 2080Ti 12G
PyTorch: 2.0.0
CUDA: 11.8
下面我们将详细介绍各个模块的实现。
数据处理是微调过程的第一步,主要包括以下两个步骤:
项目提供了将Alpaca数据集转换为jsonl格式的脚本:
python cover_alpaca2jsonl.py --data_path data/alpaca_data.json --save_path data/alpaca_data.jsonl
使用以下命令对数据进行tokenization处理:
python tokenize_dataset_rows.py --jsonl_path data/alpaca_data.jsonl --save_path data/alpaca --max_seq_length 200 --skip_overlength True
这一步将数据转换为模型可直接使用的token序列。
监督微调是对预训练模型进行初步微调的过程。项目使用了LoRA技术来提高微调效率。
首先需要 安装最新版的PEFT库:
pip uninstall peft -y pip install git+https://github.com/huggingface/peft.git
使用以下命令启动监督微调:
python supervised_finetune.py --dataset_path data/alpaca --lora_rank 8 --per_device_train_batch_size 1 --gradient_accumulation_steps 32 --save_steps 200 --save_total_limit 3 --learning_rate 1e-4 --fp16 --remove_unused_columns false --logging_steps 10 --output_dir output
主要参数说明:
微调完成后,可以将LoRA权重合并到原始模型中:
pip install peft==0.2.0 python merge_peft_adapter.py --model_name ./output
注意这里需要使用peft 0.2.0版本。
奖励模型是RLHF中的关键组件,用于评估生成文本的质量。
由于ChatGLM模型结构的特殊性,项目自行实现了奖励模型,代码在reward_model.py中。
使用以下命令训练奖励模型:
python train_reward_model.py --model_name 'THUDM/chatglm-6b' --gradient_accumulation_steps 32 --per_device_train_batch_size 1 --train_subset 100 --eval_subset 10 --local_rank 0 --bf16 False
主要参数:
训练完成后,同样可以将权重合并到原始模型:
python merge_peft_adapter.py --model_name ./reward_model_chatglm-6b
trust_remote_code=True。ChatGLM-LoRA-RLHF-PyTorch项目提供了一个完整的流程,让研究者能够在消费级硬件上对ChatGLM模型进行LoRA微调和RLHF训练。虽然目前RLHF部分还在开发中,但已经实现的SFT和奖励模型训练为后续的强化学习奠定了基础。
该项目的开源为ChatGLM模型的进一步优化提供了宝贵的参考,也为其他研究者探索大语言模型的微调技术提供了便利。我们期待看到更多基于该项目的创新应用与改进。
从项目的Star历史可以看出,该项目受到了研究社区的广泛关注,star数量呈稳定上升趋势。这反映出研究者对于在消费级硬件上微调大语言模型的浓厚兴趣,以及对ChatGLM模型的看好。
虽然ChatGLM-LoRA-RLHF-PyTorch项目已经提供了一个相当完整的微调流程,但仍有一些值得期待的改进方向:
总的来说,ChatGLM-LoRA-RLHF-PyTorch为中文大语言模型的开源社区贡献了宝贵的资源。我们期待看到更多研究者基于该项目进行创新,推动中文AI技术的进步。同时,该项目也为其他语言的大模型微调提供了有益的参考。未来,随着硬件性能的提升和算法的优化,我们有理由相信在个人PC上运行和优化大语言模型将变得越来越普及。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即 时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频