xmtf

xmtf

通过多任务微调提升跨语言泛化能力

XMTF项目探索了通过多语言多任务微调来增强模型的跨语言泛化能力。研究者基于BLOOM和mT5模型,使用xP3数据集进行微调,开发了BLOOMZ和mT0系列模型。这些模型在46种语言的13个任务上接受训练,展现出显著的跨语言和跨任务迁移学习能力。项目公开了完整的数据处理流程、模型训练方法和评估体系,为自然语言处理领域的跨语言研究提供了重要参考。

多任务微调跨语言泛化xP3BLOOMZmT0Github开源项目

通过多任务微调实现跨语言泛化

本仓库概述了用于创建 BLOOMZ、mT0 和 xP3 的所有组件,这些内容在论文《通过多任务微调实现跨语言泛化》中有介绍。

<!-- TOC --> <!-- /TOC -->

数据

<table> <tr> <th>名称</th> <th>说明</th> <th>示例模型</th> </tr> <tr> <td><a href=https://huggingface.co/datasets/Muennighoff/xP3x>xP3x</a></t> <td>包含 277 种语言的 17 项任务混合,使用英语提示</td> <td>正在开发 - 加入我们的 Aya 项目 @<a href=https://cohere.for.ai/>C4AI</a> 来帮忙!</td> </tr> <tr> <td><a href=https://huggingface.co/datasets/bigscience/xP3>xP3</a></t> <td>包含 46 种语言的 13 项训练任务混合,使用英语提示</td> <td><a href=https://huggingface.co/bigscience/bloomz>BLOOMZ</a> 和 <a href=https://huggingface.co/bigscience/mt0-xxl>mT0-13B</a></td> </tr> <tr> <td><a href=https://huggingface.co/datasets/bigscience/xP3mt>xP3mt</a></t> <td>包含 46 种语言的 13 项训练任务混合,使用 20 种语言的提示(从英语机器翻译而来)</td> <td><a href=https://huggingface.co/bigscience/bloomz-mt>BLOOMZ-MT</a> 和 <a href=https://huggingface.co/bigscience/mt0-xxl-mt>mT0-13B-MT</a></td> </tr> <tr> <td><a href=https://huggingface.co/datasets/bigscience/xP3all>xP3all</a></t> <td>xP3 加上我们的评估数据集,增加了 3 项任务,总共 16 项任务,涉及 46 种语言,使用英语提示</td> <td></td> </tr> <tr> <td><a href=https://huggingface.co/datasets/bigscience/xP3megds>xP3megds</a></t> <td>使用 <a href=https://github.com/bigscience-workshop/Megatron-DeepSpeed>Megatron-DeepSpeed</a> 处理的 xP3 版本</td> <td><a href=https://huggingface.co/bigscience/bloomz>BLOOMZ</a></td> </tr> <tr> <td><a href=https://huggingface.co/datasets/Muennighoff/P3>P3</a></t> <td>重新处理的仅英语 <a href=https://huggingface.co/datasets/bigscience/P3>P3</a> 版本,包含 8 项训练任务</td> <td><a href=https://huggingface.co/bigscience/bloomz-p3>BLOOMZ-P3</a> 和 <a href=https://huggingface.co/bigscience/mt0-xxl-p3>mT0-13B-P3</a></td> </tr> </table>

模型

<table> <tr> <th colspan="12">在 <a style="font-weight:bold" href=https://huggingface.co/datasets/bigscience/xP3>xP3</a> 上进行多任务微调。推荐用于英语提示。 </tr> <tr> <td>参数</td> <td>300M</td> <td>580M</td> <td>1.2B</td> <td>3.7B</td> <td>13B</td> <td>560M</td> <td>1.1B</td> <td>1.7B</td> <td>3B</td> <td>7.1B</td> <td>176B</td> </tr> <tr> <td>微调模型</td> <td><a href=https://huggingface.co/bigscience/mt0-small>mt0-small</a></td> <td><a href=https://huggingface.co/bigscience/mt0-base>mt0-base</a></td> <td><a href=https://huggingface.co/bigscience/mt0-large>mt0-large</a></td> <td><a href=https://huggingface.co/bigscience/mt0-xl>mt0-xl</a></td> <td><a href=https://huggingface.co/bigscience/mt0-xxl>mt0-xxl</a></td> <td><a href=https://huggingface.co/bigscience/bloomz-560m>bloomz-560m</a></td> <td><a href=https://huggingface.co/bigscience/bloomz-1b1>bloomz-1b1</a></td> <td><a href=https://huggingface.co/bigscience/bloomz-1b7>bloomz-1b7</a></td> <td><a href=https://huggingface.co/bigscience/bloomz-3b>bloomz-3b</a></td> <td><a href=https://huggingface.co/bigscience/bloomz-7b1>bloomz-7b1</a></td> <td><a href=https://huggingface.co/bigscience/bloomz>bloomz</a></td> </tr> </tr> <tr> <th colspan="12">在 <a style="font-weight:bold" href=https://huggingface.co/datasets/bigscience/xP3mt>xP3mt</a> 上进行多任务微调。推荐用于非英语提示。</th> </tr> <tr> <td>微调模型</td> <td></td> <td></td> <td></td> <td></td> <td><a href=https://huggingface.co/bigscience/mt0-xxl-mt>mt0-xxl-mt</a></td> <td></td> <td></td> <td></td> <td></td> <td><a href=https://huggingface.co/bigscience/bloomz-7b1-mt>bloomz-7b1-mt</a></td> <td><a href=https://huggingface.co/bigscience/bloomz-mt>bloomz-mt</a></td> </tr> <th colspan="12">在 <a style="font-weight:bold" href=https://huggingface.co/datasets/Muennighoff/P3>P3</a> 上进行多任务微调。仅供研究目的发布。严格来说不如上述模型!</th> </tr> <tr> <td>微调模型</td> <td></td> <td></td> <td></td> <td></td> <td><a href=https://huggingface.co/bigscience/mt0-xxl-p3>mt0-xxl-p3</a></td> <td></td> <td></td> <td></td> <td></td> <td><a href=https://huggingface.co/bigscience/bloomz-7b1-p3>bloomz-7b1-p3</a></td> <td><a href=https://huggingface.co/bigscience/bloomz-p3>bloomz-p3</a></td> </tr> <th colspan="12">原始预训练检查点。不推荐使用。</th> <tr> <td>预训练模型</td> <td><a href=https://huggingface.co/google/mt5-small>mt5-small</a></td> <td><a href=https://huggingface.co/google/mt5-base>mt5-base</a></td> <td><a href=https://huggingface.co/google/mt5-large>mt5-large</a></td> <td><a href=https://huggingface.co/google/mt5-xl>mt5-xl</a></td> <td><a href=https://huggingface.co/google/mt5-xxl>mt5-xxl</a></td> <td><a href=https://huggingface.co/bigscience/bloom-560m>bloom-560m</a></td> <td><a href=https://huggingface.co/bigscience/bloom-1b1>bloom-1b1</a></td> <td><a href=https://huggingface.co/bigscience/bloom-1b7>bloom-1b7</a></td> <td><a href=https://huggingface.co/bigscience/bloom-3b>bloom-3b</a></td> <td><a href=https://huggingface.co/bigscience/bloom-7b1>bloom-7b1</a></td> <td><a href=https://huggingface.co/bigscience/bloom>bloom</a></td> </tr> </table>

创建 xP3(x)

我们已经处理并上传了 xP3。如果你想重新创建它,请按以下步骤操作:

  1. 获取promptsource:对于xP3mt,执行git clone -b xp3mt https://github.com/Muennighoff/promptsource.git;对于xP3,执行git clone -b tr13 https://github.com/Muennighoff/promptsource.git,然后安装:cd promptsource; pip install -e .
  2. 安装包:pip install -q datasets iso-639
  3. 获取创建脚本并根据需要进行编辑:
    • 对于xP3mt,在开头设置USE_ENGLISH_PROMPTS = False
    • 对于xP3,在开头设置USE_ENGLISH_PROMPTS = True
  4. 运行脚本,例如通过python prepare_xp3.pySLURM脚本

对于xP3的新扩展xP3x,过程基本相同,除了:

  1. 安装xp3x分支:pip install git+https://github.com/Muennighoff/promptsource.git@xp3x
  2. 创建脚本位于本仓库,名为create_xp3x.py

xP3x是xP3的超集,除非你想复现论文,否则我们建议始终使用xP3x(或如果你想要机器翻译的提示,则使用xP3mt)。

训练模型

BLOOMZ

  1. 下载预训练模型检查点,其形状为PP=12,TP=4,DP=4。如果你想重塑模型,还需要下载通用检查点。如果你想继续微调,应使用我们的微调检查点,其形状为PP=72,TP=1,DP=4。
  2. 设置训练代码:git clone -b t0loading https://github.com/bigscience-workshop/Megatron-DeepSpeed,并按照其设置指南创建包含必要包的环境。
  3. 下载Megatron-DeepSpeed处理过的xP3megds,或自行下载xP3,移除merged_{lang}.jsonl文件,并使用此处的脚本为Megatron-DeepSpeed重新预处理。
  4. 设置并运行训练脚本:我们使用位于bigscience-workshop/bigscience/train/tr13-mtf的SLURM脚本,称为xp3capmixnewcodelonglossseq。例如,这是用于训练bloomz的脚本。需要修改的脚本重要部分包括:
  • #SBATCH变量,如节点、GPU、时间等 - 我们的SLURM指南在这里
  • source $six_ALL_CCFRWORK/start-tr13f-6B3-ml-t0指向你通过Megatron-DeepSpeed设置的conda环境
  • PATH环境变量,特别是
    • TRAIN_DATA_PATHVALID_DATA_PATH,指向处理过的训练和验证数据文件。我们在本仓库中提供了文件(xp3capmixnewcodelong_train.txtxp3capmixnewcodelong_validation.txt),但你可能需要更改其中的路径。每种语言的百分比基于它们在xP3中的占比,代码稍微上采样。
  • PP_SIZE=72,TP_SIZE=1和BATCH SIZE等指定布局。这取决于你可用的硬件。如果更改,可能需要重塑模型。重塑时需要使用通用检查点并在脚本中使用--universal标志。我们建议在之后立即保存新检查点,然后继续训练时不使用--universal,这样会更快。
  • 如果要从保存的检查点重新开始(例如,在训练几步后),确保删除--no-load-optim--reset-progress标志
  • 训练后,可以使用这里的脚本将检查点转换为transformers格式

有用资源:

mT0

按照这里的微调说明进行操作,确保使用预训练的mT5模型和xP3数据集。

有用资源:

评估模型

所有评估结果都可在此仓库获取:https://huggingface.co/datasets/bigscience/evaluation-results,位于各自模型下。 以下我们解释如何进行评估。

排序评估

我们在XCOPAXNLIXStoryClozeXWinograd上进行排序评估:

  1. 获取promptsource分支:git clone -b xp3mt https://github.com/Muennighoff/promptsource.git,然后cd promptsource; pip install -e .
  2. 获取t-zero分支:git clone -b muennighoff/upgrdps https://github.com/Muennighoff/t-zero.git,然后cd t-zero; pip install -e .
  3. 下载模型并运行评估脚本,例如bloomz

生成评估

我们在训练过程中对翻译和摘要进行生成评估以进行验证:

  1. 获取promptsource分支:git clone -b xp3mt https://github.com/Muennighoff/promptsource,然后cd promptsource; pip install -e .
  2. 获取bigscience-workshop/lm-evaluation-harnessgit clone https://github.com/bigscience-workshop/lm-evaluation-harness。例如,7.1B模型的脚本在这里

我们还在HumanEval上评估代码生成:

  1. 获取代码评估代码:git clone https://github.com/loubnabnl/bloom-code-evaluation,并完成其设置。
  2. code_eval.py中的complete_code(model, tokenizer, prompt, num_completions=1, prepend_eos=True, **gen_kwargs)处将prepend_eos设为False,即complete_code(model, tokenizer, prompt, num_completions=1, prepend_eos=False, **gen_kwargs)
  3. 下载模型并运行评估脚本,将MODEL_CKPT替换为你的路径,例如bloomz使用这个

图表和表格

图表

  • 图1:plotstables/xp3_taxonomy.drawioplotstables/xp3_taxonomy.pdf
  • 图2:plotstables/xp3_languages.ipynbcolab
  • 图3:plotstables/xp3_variants.pdf绘图
  • 图4:plotstables/xp3_generalization_bar.pdfcolab
  • 图5:plotstables/lang_generalizationcolab
  • 图6:plotstables/scale.pdfcolab
  • 图7:plotstables/validation.pdfcolab
  • 图8:plotstables/pretraining_sizes.pdfcolab
  • 图9:plotstables/english_task_generalization.pdfcolab
  • 图10:plotstables/task_generalization.pdfcolab
  • 图11:plotstables/roots_xp3_languages.pdfcolab,需要 plotstables/contamination 中的一些文件
  • 图12:plotstables/examples/bloom_code_example.pyplotstables/examples/bloom_code_light.pdfplotstables/examples/bloomz_code_light.pdf;原始代码文件可以在这里这里找到
  • 图13至图16:plotstables/examples/*.pdfplotstables/examples/generations.drawio

表格

引用

@article{muennighoff2022crosslingual, title={Crosslingual generalization through multitask finetuning}, author={Muennighoff, Niklas and Wang, Thomas and Sutawika, Lintang and Roberts, Adam and Biderman, Stella and Scao, Teven Le and Bari, M Saiful and Shen, Sheng and Yong, Zheng-Xin and Schoelkopf, Hailey and others}, journal={arXiv preprint arXiv:2211.01786}, year={2022} }

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多