
在深度学习领域,如何高效地微调大型预训练模型一直是一个热门话题。近日,来自康奈尔大学和微软研究院的研究人员提出了一种新的参数高效微调方法 - MoRA(High-Rank Updating for Parameter-Efficient Fine-Tuning)。这种方法通过高阶矩阵分解实现了高效的参数更新,在各种下游任务中都表现出色。让我们一起深入了解这项创新技术。
MoRA的核心思想是利用高阶矩阵分解来实现参数的高效更新。传统的低秩适应(LoRA)方法虽然可以减少可训练参数的数量,但其表达能力有限。MoRA通过引入高阶分解,大大提高了参数更新的灵活性和表达能力,同时保持了计算效率。
具体来说,MoRA使用了两种主要的更新策略:
这两种策略都能在保持参数效率的同时,提供更强的表达能力。
MoRA的实现基于Hugging Face的PEFT库。研究人员在GitHub上提供了完整的代码实现(https://github.com/kongds/MoRA)。使用MoRA非常简单,只需要在LoRA配置中启用相关选项即可:
from peft import LoraConfig, get_peft_model config = LoraConfig( use_mora=True, # 启用MoRA mora_type=6, # 选择MoRA类型 r=lora_r, # 设置LoRA秩 target_modules=lora_target_modules, lora_dropout=lora_dropout, task_type="CAUSAL_LM", ) model = get_peft_model(model, config)
值得注意的是,MoRA不使用lora_alpha参数,这是它与传统LoRA的一个区别。
研究人员在多个任务上对MoRA进行了测试,包括语言模型微调和预训练。以下是两个典型的应用场景:
RANK=8 deepspeed --num_gpus=8 --num_nodes=2 train.py \ --base_model <LLAMA-2> --micro_batch_size 4 \ --wandb_run_name mora_math_r8 \ --lora_target_modules q_proj,k_proj,v_proj,o_proj,gate_proj,down_proj,up_proj \ --num_epochs 3 --deepspeed ds.config --wandb_project lora-math --lora_r $RANK \ --batch_size 128 --data_path meta-math/MetaMath --save_steps 3000 \ --learning_rate 3e-4 --mora_type 6 --logging_steps 5 --use_bf16 --use_16bit --use_mora
deepspeed --num_gpus=8 --num_nodes=4 train.py \ --micro_batch_size 16 --wandb_run_name mora-pretrain250m-r128 \ --num_epochs 1 --wandb_project lora-pretrain --batch_size 1024 \ --data_path <processed C4> --logging_steps 1 \ --lora_target_modules q_proj,k_proj,v_proj,o_proj,gate_proj,down_proj,up_proj \ --lora_r 128 --lora_alpha 64 --warmup_steps 1000 \ --force_tqdm_update --lr_scheduler_type cosine \ --max_steps 10000 --pretrain 250m \ --train_embhead --learning_rate 5e-4 \ --use_mora --use_relora --use_relora_step 2000 # ReMoRA每2000步合并一次
这些示例展示了MoRA在不同规模和类型的任务中的灵活应用。

高效参数更新: MoRA通过高阶矩阵分解,在保持参数数量较少的同时,大大提高了更新的表达能力。
灵活性: MoRA提供了多种更新策略,可以根据任务特点和计算资源选择最合适的方法。
易于集成: 基于PEFT库实现,MoRA可以轻松集成到现有的训练流程中。
性能提升: 在多个下游任务中,MoRA都展现出了优于传统LoRA的性能。
可扩展性: MoRA的设计考虑了大规模模型和长序列处理的需求,具有良好的可扩展性。
MoRA的出现为参数高效微调领域带来了新的可能性。未来,我们可以期待以下几个方向的发展:
更多的应用场景: 除了自然语言处理,MoRA有潜力应用于计算机视觉、多模态学习等更广泛的领域。
与其他技术的结合: 探索MoRA与量化、稀疏化等其他模型压缩技术的结合,进一步提高效率。
理论分析: 深入研究MoRA的数学原理,为其性能提供更强的理论保证。
自动化配置: 开发自动化工具,帮助用户根据具体任务选择最佳的MoRA配置。
硬件优化: 针对MoRA的特点,开发专门的硬件加速方案,进一步提高训练和推理速度。
MoRA作为一种新型的参数高效微调方法,展现出了巨大的潜力。它不仅提高了模型微调的效率,还为大规模语言模型的应用开辟了新的可能性。随着更多研究者和开发者的参与,我们有理由相信MoRA将在未来的AI领域发挥更大的作用,推动自然语言处理技术的进一步发展。
对于有兴趣深入了解和使用MoRA的读者,可以访问GitHub仓库获取更多 详细信息和代码实现。让我们共同期待MoRA在未来带来的更多惊喜和突破!


全球首个AI音乐社区
音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。


阿里Qoder团队推出的桌面端AI智能体
QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。


一站式搞定所有学习需求
不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。


为AI短剧协作而生
专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。


能听懂你表达的视频模型
Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。


国内直接访问,限时3折
输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号