MFTCoder

MFTCoder

优化代码大模型性能的多任务微调框架

MFTCoder是一个开源的多任务微调框架,致力于提升代码大模型性能。该框架支持多种主流开源大模型,采用LoRA和QLoRA等高效微调方法,实现多任务平衡训练。MFTCoder还开源了多个高性能代码大模型和高质量数据集,在HumanEval等基准测试中表现优异。这一框架旨在促进代码大模型领域的协作与创新。

MFTCoder多任务微调代码大语言模型CodeFuseHumanEvalGithub开源项目

MFTCoder:高精度高效率的多任务微调框架

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/ab5030c0/22ae7849-e39b-4af1-944a-977622ef688f.jpg" width="50%" /> </p> <div align="center"> <p> <a href="https://github.com/codefuse-ai/MFTCoder"> <img alt="stars" src="https://img.shields.io/github/stars/codefuse-ai/MFTCoder?style=social" /> </a> <a href="https://github.com/codefuse-ai/MFTCoder"> <img alt="forks" src="https://img.shields.io/github/forks/codefuse-ai/MFTCoder?style=social" /> </a> <a href="https://github.com/codefuse-ai/MFTCoder/LICENCE"> <img alt="License: MIT" src="https://badgen.net/badge/license/apache2.0/blue" /> </a> <a href="https://github.com/codefuse-ai/MFTCoder/issues"> <img alt="Open Issues" src="https://img.shields.io/github/issues-raw/codefuse-ai/MFTCoder" /> </a> </p> <p> 🤗 <a href="https://huggingface.co/codefuse-ai" target="_blank">HuggingFace </a>• 🤖<a href="https://modelscope.cn/organization/codefuse-ai" target="_blank"> ModelScope </a> </p>

[中文] [英文]

</div>

目录

新闻

🔥🔥🔥 [2024/05/20] 我们发布了MFTCoder v0.4,主要针对MFTCoder加速。它支持QLoRA + DeepSpeed Zero3QLoRA + FSDP作为选项,允许您训练非常大的模型。它现在支持新的模型,如Qwen2、Qwen2-MoE、Starcoder2、Gemma等。

🔥🔥🔥 [2024/05/20] 我们的论文MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning已被KDD2024接收。

🔥🔥🔥 [2024/05/20] CodeFuse-StarCoder2-15B已发布,在HumanEval上达到73.2%的pass@1(贪婪解码)分数。

🔥🔥 [2024/01/30] 使用MFTCoder微调的模型CodeFuse-DeepSeek-33B在HuggingFace Big Code Models LeaderBoard上排名第一。

🔥🔥 [2024/01/17] 我们发布了MFTCoder v0.3.0,主要针对MFTCoder加速。它现在支持新的模型,如Mixtral(MoE)、DeepSeek-coder、chatglm3。它支持FSDP作为一个选项。它还支持自适应步长损失作为多任务微调中收敛平衡的解决方案。

🔥🔥 [2024/01/17] CodeFuse-DeepSeek-33B已发布,在HumanEval上达到78.7%的pass@1(贪婪解码)分数。它在胜率方面列为Bigcode排行榜上的顶级LLM,官方结果将在稍后公布。

🔥🔥 [2024/01/17] CodeFuse-Mixtral-8x7B已发布,在HumanEval上达到56.1%的pass@1(贪婪解码)分数。

🔥🔥 [2023/11/07] MFTCoder论文已在Arxiv上发布,披露了多任务微调的技术细节。

🔥🔥 [2023/10/20] CodeFuse-QWen-14B已发布,在HumanEval上达到48.8%的pass@1(贪婪解码)分数,相比基础模型Qwen-14b绝对提升了16%。

🔥🔥 [2023/09/27] CodeFuse-StarCoder-15B已发布,在HumanEval上达到54.9%的pass@1(贪婪解码)分数。

🔥🔥 [2023/09/26] 我们很高兴宣布发布CodeFuse-CodeLlama-34B的4位量化版本。尽管经过量化处理,该模型在HumanEval pass@1指标上仍然达到了73.8%的显著准确率(贪婪解码)。

🔥🔥 [2023/09/07] 我们发布了CodeFuse-CodeLlama-34B,它在HumanEval基准测试上达到了74.4%的Python Pass@1(贪婪解码),超越了GPT4(2023/03/15)和ChatGPT-3.5。

🔥🔥 [2023/08/26] 我们发布了MFTCoder-v0.1.0,它支持使用LoRA/QLoRA对Code Llama、Llama、Llama2、StarCoder、ChatGLM2、CodeGeeX2、Qwen和GPT-NeoX模型进行微调。

HumanEval 性能

模型HumanEval(Pass@1)日期
CodeFuse-DeepSeek-33B78.7%2024/01
CodeFuse-CodeLlama-34B74.4%2023/09
CodeFuse-CodeLlama-34B-4bits73.8%2023/09
CodeFuse-StarCoder2-15B73.2%2023/05
WizardCoder-Python-34B-V1.073.2%2023/08
GPT-4(零样本)67.0%2023/03
PanGu-Coder2 15B61.6%2023/08
CodeFuse-Mixtral-8x7B56.1%2024/01
CodeFuse-StarCoder-15B54.9%2023/08
CodeLlama-34b-Python53.7%2023/08
CodeFuse-QWen-14B48.8%2023/10
CodeLlama-34b48.8%2023/08
GPT-3.5(零样本)48.1%2022/11
OctoCoder46.2%2023/08
StarCoder-15B33.6%2023/05
QWen-14B32.3%2023/10

文章

MFTCoder: 通过多任务微调提升代码大语言模型性能 (KDD2024)

简介

高精度高效率的代码大语言模型多任务微调框架。

MFTCoder 是 CodeFuse 的一个开源项目,用于大语言模型(尤其是代码任务大语言模型)的高精度高效率多任务微调(MFT)。 此外,我们还开源了代码大语言模型和代码相关数据集,与 MFTCoder 框架一同发布。

在 MFTCoder 中,我们发布了两个用于微调大语言模型的代码库:

  • MFTCoder-accelerate 是一个基于 accelerate 和 DeepSpeed/FSDP 的框架。所有技术栈都是开源且活跃的。我们强烈建议您尝试这个框架,让您的微调过程更加精确高效。
  • MFTCoder-atorch 基于 ATorch 框架,这是一个快速的分布式 LLM 训练框架。

该项目旨在促进合作并分享大语言模型领域的进展,特别是在代码开发领域。

框架

img.jpg

亮点

:white_check_mark: 多任务:在多个任务上训练模型,同时保持它们之间的平衡。模型甚至可以泛化到新的、以前未见过的任务。

:white_check_mark: 多模型:集成了最先进的开源模型,如 gpt-neox、llama、llama-2、baichuan、Qwen、chatglm2 等。(这些微调后的模型将在不久的将来发布。)

:white_check_mark: 多框架:同时支持 Accelerate(配合 Deepspeed 和 FSDP)和 ATorch

:white_check_mark: 高效微调:支持 LoRA、QLoRA 以及全参数训练,能够以最少的资源微调大型模型。训练速度满足几乎所有微调场景的需求。

该项目的主要组成部分包括:

  • 同时支持 SFT(监督微调)和 MFT(多任务微调)。当前的 MFTCoder 实现了多个任务之间的数据平衡,未来的版本将在训练过程中实现任务难度和收敛速度之间的平衡。
  • 支持 QLoRA 指令微调、LoRA 微调以及全参数微调。
  • 支持大多数主流开源大模型,尤其是与代码大语言模型相关的模型,如 DeepSeek-coder、Mistral、Mixtral、Chatglm3、Code-LLaMA、Starcoder、Codegeex2、Qwen、GPT-Neox 等。
  • 支持 LoRA 适配器和基础模型之间的权重合并,简化推理过程。
  • 发布了 2 个高质量的代码相关指令微调数据集:Evol-instruction-66kCodeExercise-Python-27k
  • 发布了多个代码大语言模型,请参阅以下组织:huggingface 上的 codefuse-aimodelscope 上的 codefuse-ai

要求

首先,确保您已成功安装 CUDA(版本 >= 11.4,最好是 12.1)以及必要的驱动程序。此外,确保您已安装 torch(版本 >= 2.1.0)。

接下来,我们提供了一个 init_env.sh 脚本来简化所需包的安装。执行以下命令运行脚本:

sh init_env.sh

我们强烈建议使用 flash attention(版本 >= 2.3.0)进行训练,请参考以下链接获取安装说明:https://github.com/Dao-AILab/flash-attention

训练

如上所述,我们开源了两个训练框架。您可以参考它们各自的 README 获取更多详细信息。

如果您熟悉开源的 transformersDeepSpeedFSDP,我们强烈建议您尝试:

🚀🚀 MFTCoder-accelerate:用于 MFT(多任务微调)的 Accelerate + Deepspeed/FSDP 代码库

如果您想探索一些新框架,如 atorch,可以查看:

🚀 MFTCoder-atorch:用于 MFT(多任务微调)的 Atorch 代码库

模型

我们很高兴发布以下两个由 MFTCoder 训练的代码大语言模型,现已在 HuggingFace 和 ModelScope 上同时提供:

模型HuggingFace 链接ModelScope 链接基础模型训练样本数批量大小序列长度
🔥 CodeFuse-DeepSeek-33Bh-链接m-链接DeepSeek-coder-33B60万804096
🔥 CodeFuse-Mixtral-8x7Bh-链接m-链接Mixtral-8x7B60万804096
🔥 CodeFuse-CodeLlama-34Bh-链接m-链接CodeLlama-34b-Python60万804096
🔥 CodeFuse-CodeLlama-34B-4bitsh-链接m-链接CodeLlama-34b-Python4096
🔥 CodeFuse-StarCoder-15Bh-链接m-链接StarCoder-15B60万804096
🔥 CodeFuse-QWen-14Bh-链接m-链接Qwen-14b110万2564096
🔥 CodeFuse-CodeGeex2-6Bh-链接m-链接CodeGeex2-6B110万2564096
🔥 CodeFuse-StarCoder2-15Bh-链接m-链接Starcoder2-15B70万1284096

数据集

我们很高兴发布两个精心筛选的代码相关指令数据集,这些数据集来自各种数据源,用于多任务训练。未来,我们将继续发布涵盖各种代码相关任务的更多指令数据集。

数据集描述
⭐ Evol-instruction-66k基于open-evol-instruction-80k,过滤掉质量低、重复和与HumanEval相似的指令,从而得到高质量的代码指令数据集。
⭐ CodeExercise-Python-27kPython代码练习指令数据集

贡献

欢迎贡献!如果您有任何建议、想法、错误报告或新的模型/功能支持,请提出问题或提交拉取请求。

引用

如果您发现我们的工作对您的研发工作有用或有帮助,请随时按以下方式引用我们的论文。

@article{mftcoder2023,
      title={MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning}, 
      author={Bingchang Liu and Chaoyu Chen and Cong Liao and Zi Gong and Huan Wang and Zhichao Lei and Ming Liang and Dajun Chen and Min Shen and Hailian Zhou and Hang Yu and Jianguo Li},
      year={2023},
      journal={arXiv preprint arXiv},
      archivePrefix={arXiv},
      eprint={2311.02303}
}

星标历史

<a href="https://star-history.com/#MFTCoder/MFTCoder&Date"> <picture> <source media="(prefers-color-scheme: dark)" srcset="https://api.star-history.com/svg?repos=codefuse-ai/MFTCoder&type=Date&theme=dark" /> <img alt="星标历史图表" src="https://api.star-history.com/svg?repos=codefuse-ai/MFTCoder&type=Date" /> </picture> </a>

加入我们

我们是蚂蚁集团平台技术事业群内的AI Native团队,致力于蚂蚁集团平台工程的智能化。我们的团队成立已超过三年,在支持蚂蚁集团云计算基础设施的智能运维方面发挥了关键作用。我们的使命是通过世界级的技术创新和影响力,构建具有广泛用户基础的算法服务和平台,支持内外部产品和业务的落地。

我们的团队秉持创新驱动的理念,不仅支持业务落地,还推动技术影响力。在过去三年里,我们在ICLR、NeurIPS、KDD和ACL等顶级会议上发表了20多篇论文。我们的创新业务成果为我们赢得了两项蚂蚁科技最高级别的T-Star奖和一项蚂蚁集团SuperMA奖。截至2024年2月,我们的开源项目CodeFuse已获得4K星标,我们的模型在Huggingface和Modelscope上的下载量超过150万次。

我们正在寻找顶尖人才加入我们充满活力的团队!如果您渴望在一个充满能量、创新和追求卓越文化的环境中发展事业,我们欢迎您探索我们面向校园和社会招聘的职业机会。加入我们,成为创造行业下一个里程碑的一份子。

校园招聘https://hrrecommend.antgroup.com/guide.html?code=8uoP5mlus5DqQYbE_EnqcE2FD5JZH21MwvMUIb9mb6X3osXPuBraG54SyM8GLn_7

社会招聘https://talent.antgroup.com/off-campus-position?positionId=1933830

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI助手AI工具AI写作工具AI辅助写作蛙蛙写作学术助手办公助手营销助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

聊天机器人AI助手热门AI工具AI对话
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多