nanoT5

nanoT5

轻量高效的T5模型训练框架

nanoT5是一个开源项目,旨在提供高效训练T5模型的方案。该项目在单GPU上仅用16小时就能达到与原始T5模型相当的性能,显著降低了训练成本。nanoT5优化了数据预处理、优化器选择等训练流程,为NLP研究人员提供了易用的研究模板。作为首个PyTorch实现的T5预训练框架,nanoT5为计算资源有限的研究者提供了宝贵工具。

T5模型预训练PyTorch自然语言处理nanoT5Github开源项目

nanoT5(编码器-解码器 / 预训练 + 微调)

nanoT5

[论文] | 摘要 | 动机 | 设置 | 预训练 | 微调 | 附加内容 | 结论 | 参考文献 | 引用 | 问题

摘要:

本仓库包含在有限预算(1块A100 GPU,< 24小时)下在PyTorch中复现"大型语言模型"(T5)预训练的代码。我们从随机初始化的T5-base-v1.1(2.48亿参数)模型开始,在C4数据集的英文子集上进行预训练,然后在超自然指令(SNI)基准上进行微调。

在单个GPU上经过约16小时,我们在SNI测试集上达到了40.7 RougeL,相比之下,HuggingFace Hub上提供的原始模型权重在150倍更多的数据上"通过模型和数据并行的组合[...]在Cloud TPU Pod的切片上"(每个切片有1024个TPU)预训练,达到了40.9 RougeL。

我们的核心贡献不是T5模型本身,它遵循HuggingFace的实现。相反,我们优化了训练流程中的其他所有内容,为您的NLP应用/研究提供了一个用户友好的起始模板。最重要的是,我们展示了在有限预算下在PyTorch中预训练T5模型到最高性能是可能的。

动机

尽管预训练的Transformer规模不断增大,研究社区仍然需要易于复现和最新的基线,以快速测试新的研究假设并在小规模上进行。

Andrej Karpathy最近的努力,nanoGPT仓库,使研究人员能够预训练和微调GPT风格(仅解码器)的语言模型。另一方面,Cramming选择为有限计算设置找到最佳的BERT风格(仅编码器)预训练方案。

通过nanoT5,我们希望填补一个空白(社区请求:#1 #2 #3 #4 #5),提供一个可访问的研究模板来预训练和微调T5风格(编码器-解码器)模型。据我们所知,这是首次尝试在PyTorch中复现T5 v1.1预训练(之前可用的实现都是在Jax/Flax中)。

**我们创建这个仓库是为了那些想自己预训练T5风格模型并评估其在下游任务上性能的人。**这可能出于各种原因:

  • 您是计算资源有限的学术研究人员(像我一样),提出了一个基于T5模型的有前景的想法,因此需要一个流程来评估它;
  • 您有一个内部数据集,您认为比原始预训练数据集(C4)更适合您的下游任务;
  • 您想要试验持续预训练或想要在T5预训练目标的基础上构建。

如果您不需要预训练T5模型,最好从HuggingFace Hub下载权重。由于我们在有限计算资源下工作,我们的检查点性能较差。

在这个项目中,我们公开(出于研究目的)并优化了T5训练流程中的所有内容,除了模型实现。我们包含了T5模型的简化实现(这对教学和学习目的很好),但是我们没有使用最新技术(如张量或流水线并行)进行优化,因为这会使代码变得更复杂,而且在小规模上并不需要。**最重要的是,我们的代码基于PyTorch,因为对TPU的访问有限。**主要特点:

  • **数据集:**C4数据集的下载和预处理与模型训练同时进行。C4数据集大于300GB,下载需要几个小时,预处理甚至更长。这个代码库实现了即时处理,对训练时间和性能没有显著影响(我们没有观察到,尽管对于旧CPU(<8核)或慢速互联网连接可能会发生)。因此,您可以在几分钟内开始预训练您自己的T5模型。
  • 模型优化器 / 学习率调度器:原始T5使用内存高效的Adafactor优化器。另一方面,一项关于预训练T5的研究报告说使用AdamW训练不收敛,我们认为这很奇怪,因为AdamW理论上比Adafactor有更好的近似。我们通过几次消融实验分析了这种差异的来源。尽管Adafactor和AdamW之间有许多细微差别,但确保Adafactor收敛的是按其均方根(RMS)进行的矩阵级学习率缩放。我们通过RMS缩放增强了AdamW实现,观察到它在预训练期间变得更稳定,达到更好的验证损失,并且更快
  • **公开性和简洁性:**我们尝试平衡训练流程的实现,保持其可定制性的同时保留足够的抽象级别。我们使用HuggingFace Accelerator来实现检查点保存、梯度累积、梯度裁剪和将张量移动到正确设备等操作。我们使用neptune.ai进行实验跟踪,使用hydra进行超参数管理。此外,我们还公开了T5模型、训练循环、数据预处理等的简化实现
  • **效率:**我们使用混合精度训练(TF32 & BF16)、PyTorch 2.0编译,并利用了已建立的优化教程中列出的所有优化 #1 #2

设置

环境 & 硬件:

git clone https://github.com/PiotrNawrot/nanoT5.git
cd nanoT5
conda create -n nanoT5 python=3.8
conda activate nanoT5
pip install -r requirements.txt

以上命令将导致以下pip freeze,截至2023年6月18日。

我们还包含了我们的lscpunvidia-smi

预训练:

参考:

T5 v1.1的作者报告在C4的保留集上经过2^16步训练后,负对数似然(NLL)达到了1.942

传统优化器(Adafactor)和学习率调度(反平方根)

我们遵循原始的预训练实验设置,包括数据集(C4)训练目标(跨度填充)模型架构(T5-Base)优化器(Adafactor)学习率调度(反平方根)

我们在保留集上的负对数似然为1.995,略差于参考值。

AdamW和RMS缩放优化器以及余弦学习率调度

我们还尝试了AdamW优化器(而不是原始的Adafactor),因为理论上它应该在训练过程中提供更好的稳定性。它不使用梯度二阶矩的低秩近似,而是通过在内存中存储每个参数的移动平均值来直接估计。但是,使用AdamW训练会发散,类似于这项关于T5预训练的研究。通过多次消融实验,我们发现按矩阵均方根(RMS)进行学习率缩放是Adafactor收敛的关键。我们通过RMS缩放增强了AdamW的实现,观察到它收敛了,在预训练过程中变得更加稳定,而且略快(它直接从内存中检索二阶矩,而不是通过矩阵乘法近似)。

然而,当与反平方根学习率调度配对时,AdamW的表现不如Adafactor。在最终实验中,我们用余弦学习率调度替代了反平方根。我们在保留集上实现了1.953的负对数似然,显著优于使用反平方根调度的Adafactor。我们认为这是我们的默认预训练配置。

使用不同优化器(Adafactor vs AdamW)和调度器(ISR vs 余弦)的训练损失。其余超参数遵循原始T5 v1.1论文。

pt_loss

C4保留集上的负对数似然

<div align="center">
反平方根余弦
Adafactor1.9951.993
AdamW2.0401.953
</div>

示例

要重现上述任何实验,请选择以下超参数的任意组合:

python -m nanoT5.main \
    optim.name={adafactor,adamwscale} \
    optim.lr_scheduler={legacy,cosine}

如果你能安装PyTorch 2.0,我们建议在预训练时添加model.compile=true标志。

假设你无法访问80GB的A100 GPU。在这种情况下,你可以通过optim.grad_acc=steps增加梯度累积步数,其中batch_size必须能被steps整除。

优化过程的摘要每100步以以下格式打印。例如:

[train] Step 100 out of 65536 | Loss --> 59.881 | Grad_l2 --> 61.126 | Weights_l2 --> 7042.931 | Lr --> 0.010 | Seconds_per_step --> 1.385 |

效率统计:

以下是我们预训练实验的效率统计。我们报告了模型完成1个预训练步骤所需的时间,以及根据默认配置的总预训练时间。请注意,我们需要增加optim.grad_acc steps以适应不同于BF16的精度。

<div align="center">
混合精度格式Torch 2.0 compile梯度累积步数预训练(1步)总预训练时间
FP322~4.10s~74.6h
TF322~1.39s~25.3h
BF162~1.30s~23.7h
TF322~0.95s~17.3h
BF161~0.56s~10.2h
</div>

微调:

为了微调我们的模型,我们使用了流行的元数据集Super Natural-Instructions (SNI),它聚合了许多任务的数据集。这个元数据集被用于微调许多最近的LLM,例如FlanT5BLOOMTk-Instruct。虽然FlanT5和BLOOM除了SNI还使用了其他语料库,但Tk-Instruct的流程包括从预训练的T5模型开始,仅在SNI上进行微调。

在本仓库中,我们重现了Tk-Instruct的微调结果,并遵循他们的流程来评估我们预训练的模型。

下载Super-Natural Instructions数据:

git clone https://github.com/allenai/natural-instructions.git data

运行微调:

我们严格遵循Tk-Instruct的微调配置。目前尚不清楚Tk-Instruct是从常规检查点(google/t5-v1_1-base)初始化的,还是从专门适用于语言建模的持续训练检查点(google/t5-base-lm-adapt)初始化的。因此,我们决定评估这两种情况。运行以下命令以重现Tk-Instruct实验:

python -m nanoT5.main task=ft \
    model.name={google/t5-v1_1-base,google/t5-base-lm-adapt} \
    model.random_init={true,false} \
    model.checkpoint_path={"","/path/to/pytorch_model.bin"}

设置model.random_init=false model.checkpoint_path=""对应从HuggingFace Hub下载预训练权重。

设置model.random_init=false model.checkpoint_path="/path/to/pytorch_model.bin"对应使用nanoT5预训练的权重。

设置model.random_init=true model.checkpoint_path=""对应随机初始化。

不同预训练预算下保留测试集上的Rouge-L分数:

在下图中,我们比较了本仓库中在不同时间预算下(4812162024小时)训练的模型性能与通过Huggingface Hub获得的原始T5-base-v1.1模型权重及其为语言建模适配的版本(google/t5-base-lm-adapt)。我们观察到,在单个GPU上训练16小时的模型平均RougeL值仅比原始T5-base-v1.1模型低0.2,尽管预训练数据量少了150倍(根据T5论文,他们以2048的批量大小预训练模型一百万步。我们的16小时配置以256的批量大小进行53332步)。专门为语言建模适配的检查点(google/t5-base-lm-adapt)表现优于原始T5-base-v1.1模型和我们的模型,但这超出了本仓库的范围。

ft_rougeL

我们在HuggingFace Hub上分享了经过24小时预训练的模型权重,您可以下载并使用nanoT5在SNI上进行微调。我们还分享了微调损失曲线

单次微调步骤耗时约0.18秒,完整微调需要约1小时。

额外内容:

我们尝试过但未成功的方法:

  • 不同的优化器: 我们尝试了最新的优化器,如LionSophia,但它们都不如具有RMS缩放的AdamW表现好。
  • 位置嵌入: 我们尝试用ALiBi替换T5的学习相对位置嵌入。可能的好处包括减少参数和加快训练与推理速度。此外,如果ALiBi有效,我们可以添加Flash Attention,它目前只支持非参数化偏置(T5偏置是可训练的)。然而,使用ALiBi训练不太稳定,预训练损失也更差。
  • FP16精度: 所有使用FP16精度的实验在不同种子下都出现了发散。

结论:

我们展示了在有限预算(1个A100 GPU,< 24小时)下,使用PyTorch成功预训练"大型语言模型"(T5)是可能的。我们公开了我们的代码库、配置和训练日志,以提高NLP研究的可及性。我们期待听到您进一步改进代码库的建议。

致谢:

感谢Edoardo Maria Ponti的反馈!

参考文献:

引用

如果您发现本仓库有用,请考虑引用关于这项工作的论文。

@inproceedings{nawrot-2023-nanot5,
	title        = {nano{T}5: Fast {\&} Simple Pre-training and Fine-tuning of {T}5 Models with Limited Resources},
	author       = {Nawrot, Piotr},
	year         = 2023,
	month        = dec,
	booktitle    = {Proceedings of the 3rd Workshop for Natural Language Processing Open Source Software (NLP-OSS 2023)},
	publisher    = {Association for Computational Linguistics},
	doi          = {10.18653/v1/2023.nlposs-1.11},
	url          = {https://aclanthology.org/2023.nlposs-1.11}
}

下面您还可以找到一项使用nanoT5进行实验的出色工作。

@article{Kaddour2023NoTN,
  title={No Train No Gain: Revisiting Efficient Training Algorithms For Transformer-based Language Models},
  author={Jean Kaddour and Oscar Key and Piotr Nawrot and Pasquale Minervini and Matt J. Kusner},
  journal={ArXiv},
  year={2023},
  volume={abs/2307.06440},
}

问题:

如果您有任何问题,欢迎提出Github issue或直接联系我:piotr.nawrot@ed.ac.uk

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多