优化代码大模型性能的多任务微调框架
MFTCoder是一个开源的多任务微调框架,致力于提升代码大模型性能。该框架支持多种主流开源大模型,采用LoRA和QLoRA等高效微调方法,实现多任务平衡训练。MFTCoder还开源了多个高性能代码大模型和高质量数据集,在HumanEval等基准测试中表现优异。这一框架旨在促进代码大模型领域的协作与创新。
[中文] [英文]
</div>🔥🔥🔥 [2024/05/20] 我们发布了MFTCoder v0.4,主要针对MFTCoder加速。它支持QLoRA + DeepSpeed Zero3和QLoRA + FSDP作为选项,允许您训练非常大的模型。它现在支持新的模型,如Qwen2、Qwen2-MoE、Starcoder2、Gemma等。
🔥🔥🔥 [2024/05/20] 我们的论文MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning已被KDD2024接收。
🔥🔥🔥 [2024/05/20] CodeFuse-StarCoder2-15B已发布,在HumanEval上达到73.2%的pass@1(贪婪解码)分数。
🔥🔥 [2024/01/30] 使用MFTCoder微调的模型CodeFuse-DeepSeek-33B在HuggingFace Big Code Models LeaderBoard上排名第一。
🔥🔥 [2024/01/17] 我们发布了MFTCoder v0.3.0,主要针对MFTCoder加速。它现在支持新的模型,如Mixtral(MoE)、DeepSeek-coder、chatglm3。它支持FSDP作为一个选项。它还支持自适应步长损失作为多任务微调中收敛平衡的解决方案。
🔥🔥 [2024/01/17] CodeFuse-DeepSeek-33B已发布,在HumanEval上达到78.7%的pass@1(贪婪解码)分数。它在胜率方面列为Bigcode排行榜上的顶级LLM,官方结果将在稍后公布。
🔥🔥 [2024/01/17] CodeFuse-Mixtral-8x7B已发布,在HumanEval上达到56.1%的pass@1(贪婪解码)分数。
🔥🔥 [2023/11/07] MFTCoder论文已在Arxiv上发布,披露了多任务微调的技术细节。
🔥🔥 [2023/10/20] CodeFuse-QWen-14B已发布,在HumanEval上达到48.8%的pass@1(贪婪解码)分数,相比基础模型Qwen-14b绝对提升了16%。
🔥🔥 [2023/09/27] CodeFuse-StarCoder-15B已发布,在HumanEval上达到54.9%的pass@1(贪婪解码)分数。
🔥🔥 [2023/09/26] 我们很高兴宣布发布CodeFuse-CodeLlama-34B的4位量化版本。尽管经过量化处理,该模型在HumanEval pass@1指标上仍然达到了73.8%的显著准确率(贪婪解码)。
🔥🔥 [2023/09/07] 我们发布了CodeFuse-CodeLlama-34B,它在HumanEval基准测试上达到了74.4%的Python Pass@1(贪婪解码),超越了GPT4(2023/03/15)和ChatGPT-3.5。
🔥🔥 [2023/08/26] 我们发布了MFTCoder-v0.1.0,它支持使用LoRA/QLoRA对Code Llama、Llama、Llama2、StarCoder、ChatGLM2、CodeGeeX2、Qwen和GPT-NeoX模型进行微调。
模型 | HumanEval(Pass@1) | 日期 |
---|---|---|
CodeFuse-DeepSeek-33B | 78.7% | 2024/01 |
CodeFuse-CodeLlama-34B | 74.4% | 2023/09 |
CodeFuse-CodeLlama-34B-4bits | 73.8% | 2023/09 |
CodeFuse-StarCoder2-15B | 73.2% | 2023/05 |
WizardCoder-Python-34B-V1.0 | 73.2% | 2023/08 |
GPT-4(零样本) | 67.0% | 2023/03 |
PanGu-Coder2 15B | 61.6% | 2023/08 |
CodeFuse-Mixtral-8x7B | 56.1% | 2024/01 |
CodeFuse-StarCoder-15B | 54.9% | 2023/08 |
CodeLlama-34b-Python | 53.7% | 2023/08 |
CodeFuse-QWen-14B | 48.8% | 2023/10 |
CodeLlama-34b | 48.8% | 2023/08 |
GPT-3.5(零样本) | 48.1% | 2022/11 |
OctoCoder | 46.2% | 2023/08 |
StarCoder-15B | 33.6% | 2023/05 |
QWen-14B | 32.3% | 2023/10 |
MFTCoder: 通过多任务微调提升代码大语言模型性能 (KDD2024)
高精度高效率的代码大语言模型多任务微调框架。
MFTCoder 是 CodeFuse 的一个开源项目,用于大语言模型(尤其是代码任务大语言模型)的高精度高效率多任务微调(MFT)。 此外,我们还开源了代码大语言模型和代码相关数据集,与 MFTCoder 框架一同发布。
在 MFTCoder 中,我们发布了两个用于微调大语言模型的代码库:
MFTCoder-accelerate
是一个基于 accelerate 和 DeepSpeed/FSDP 的框架。所有技术栈都是开源且活跃的。我们强烈建议您尝试这个框架,让您的微调过程更加精确高效。MFTCoder-atorch
基于 ATorch 框架,这是一个快速的分布式 LLM 训练框架。该项目旨在促进合作并分享大语言模型领域的进展,特别是在代码开发领域。
:white_check_mark: 多任务:在多个任务上训练模型,同时保持它们之间的平衡。模型甚至可以泛化到新的、以前未见过的任务。
:white_check_mark: 多模型:集成了最先进的开源模型,如 gpt-neox、llama、llama-2、baichuan、Qwen、chatglm2 等。(这些微调后的模型将在不久的将来发布。)
:white_check_mark: 多框架:同时支持 Accelerate(配合 Deepspeed 和 FSDP)和 ATorch
:white_check_mark: 高效微调:支持 LoRA、QLoRA 以及全参数训练,能够以最少的资源微调大型模型。训练速度满足几乎所有微调场景的需求。
该项目的主要组成部分包括:
首先,确保您已成功安装 CUDA(版本 >= 11.4,最好是 12.1)以及必要的驱动程序。此外,确保您已安装 torch(版本 >= 2.1.0)。
接下来,我们提供了一个 init_env.sh 脚本来简化所需包的安装。执行以下命令运行脚本:
sh init_env.sh
我们强烈建议使用 flash attention(版本 >= 2.3.0)进行训练,请参考以下链接获取安装说明:https://github.com/Dao-AILab/flash-attention
如上所述,我们开源了两个训练框架。您可以参考它们各自的 README 获取更多详细信息。
如果您熟悉开源的 transformers
、DeepSpeed
或 FSDP
,我们强烈建议您尝试:
🚀🚀 MFTCoder-accelerate:用于 MFT(多任务微调)的 Accelerate + Deepspeed/FSDP 代码库
如果您想探索一些新框架,如 atorch,可以查看:
🚀 MFTCoder-atorch:用于 MFT(多任务微调)的 Atorch 代码库
我们很高兴发布以下两个由 MFTCoder 训练的代码大语言模型,现已在 HuggingFace 和 ModelScope 上同时提供:
模型 | HuggingFace 链接 | ModelScope 链接 | 基础模型 | 训练样本数 | 批量大小 | 序列长度 |
---|---|---|---|---|---|---|
🔥 CodeFuse-DeepSeek-33B | h-链接 | m-链接 | DeepSeek-coder-33B | 60万 | 80 | 4096 |
🔥 CodeFuse-Mixtral-8x7B | h-链接 | m-链接 | Mixtral-8x7B | 60万 | 80 | 4096 |
🔥 CodeFuse-CodeLlama-34B | h-链接 | m-链接 | CodeLlama-34b-Python | 60万 | 80 | 4096 |
🔥 CodeFuse-CodeLlama-34B-4bits | h-链接 | m-链接 | CodeLlama-34b-Python | 4096 | ||
🔥 CodeFuse-StarCoder-15B | h-链接 | m-链接 | StarCoder-15B | 60万 | 80 | 4096 |
🔥 CodeFuse-QWen-14B | h-链接 | m-链接 | Qwen-14b | 110万 | 256 | 4096 |
🔥 CodeFuse-CodeGeex2-6B | h-链接 | m-链接 | CodeGeex2-6B | 110万 | 256 | 4096 |
🔥 CodeFuse-StarCoder2-15B | h-链接 | m-链接 | Starcoder2-15B | 70万 | 128 | 4096 |
我们很高兴发布两个精心筛选的代码相关指令数据集,这些数据集来自各种数据源,用于多任务训练。未来,我们将继续发布涵盖各种代码相关任务的更多指令数据集。
数据集 | 描述 |
---|---|
⭐ Evol-instruction-66k | 基于open-evol-instruction-80k,过滤掉质量低、重复和与HumanEval相似的指令,从而得到高质量的代码指令数据集。 |
⭐ CodeExercise-Python-27k | Python代码练习指令数据集 |
欢迎贡献!如果您有任何建议、想法、错误报告或新的模型/功能支持,请提出问题或提交拉取请求。
如果您发现我们的工作对您的研发工作有用或有帮助,请随时按以下方式引用我们的论文。
@article{mftcoder2023,
title={MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning},
author={Bingchang Liu and Chaoyu Chen and Cong Liao and Zi Gong and Huan Wang and Zhichao Lei and Ming Liang and Dajun Chen and Min Shen and Hailian Zhou and Hang Yu and Jianguo Li},
year={2023},
journal={arXiv preprint arXiv},
archivePrefix={arXiv},
eprint={2311.02303}
}
我们是蚂蚁集团平台技术事业群内的AI Native团队,致力于蚂蚁集团平台工程的智能化。我们的团队成立已超过三年,在支持蚂蚁集团云计算基础设施的智能运维方面发挥了关键作用。我们的使命是通过世界级的技术创新和影响力,构建具有广泛用户基础的算法服务和平台,支持内外部产品和业务的落地。
我们的团队秉持创新驱动的理念,不仅支持业务落地,还推动技术影响力。在过去三年里,我们在ICLR、NeurIPS、KDD和ACL等顶级会议上发表了20多篇论文。我们的创新业务成果为我们赢得了两项蚂蚁科技最高级别的T-Star奖和一项蚂蚁集团SuperMA奖。截至2024年2月,我们的开源项目CodeFuse已获得4K星标,我们的模型在Huggingface和Modelscope上的下载量超过150万次。
我们正在寻找顶尖人才加入我们充满活力的团队!如果您渴望在一个充满能量、创新和追求卓越文化的环境中发展事业,我们欢迎您探索我们面向校园和社会招聘的职业机会。加入我们,成为创造行业下一个里程碑的一份子。
社会招聘:https://talent.antgroup.com/off-campus-position?positionId=1933830
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类 写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智 能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无 论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生 活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化 在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职 报告等材料,提升办公效率,是体制打工人的得力写作神器。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号