轻量高效的T5模型训练框架
nanoT5是一个开源项目,旨在提供高效训练T5模型的方案。该项目在单GPU上仅用16小时就能达到与原始T5模型相当的性能,显著降低了训练成本。nanoT5优化了数据预处理、优化器选择等训练流程,为NLP研究人员提供了易用的研究模板。作为首个PyTorch实现的T5预训练框架,nanoT5为计算资源有限的研究者提供了宝贵工具。
[论文] | 摘要 | 动机 | 设置 | 预训练 | 微调 | 附加内容 | 结论 | 参考文献 | 引用 | 问题
本仓库包含在有限预算(1块A100 GPU,< 24小时)下在PyTorch中复现"大型语言模型"(T5)预训练的代码。我们从随机初始化的T5-base-v1.1(2.48亿参数)模型开始,在C4数据集的英文子集上进行预训练,然后在超自然指令(SNI)基准上进行微调。
在单个GPU上经过约16小时,我们在SNI测试集上达到了40.7 RougeL,相比之下,HuggingFace Hub上提供的原始模型权重在150倍更多的数据上"通过模型和数据并行的组合[...]在Cloud TPU Pod的切片上"(每个切片有1024个TPU)预训练,达到了40.9 RougeL。
我们的核心贡献不是T5模型本身,它遵循HuggingFace的实现。相反,我们优化了训练流程中的其他所有内容,为您的NLP应用/研究提供了一个用户友好的起始模板。最重要的是,我们展示了在有限预算下在PyTorch中预训练T5模型到最高性能是可能的。
尽管预训练的Transformer规模不断增大,研究社区仍然需要易于复现和最新的基线,以快速测试新的研究假设并在小规模上进行。
Andrej Karpathy最近 的努力,nanoGPT仓库,使研究人员能够预训练和微调GPT风格(仅解码器)的语言模型。另一方面,Cramming选择为有限计算设置找到最佳的BERT风格(仅编码器)预训练方案。
通过nanoT5,我们希望填补一个空白(社区请求:#1 #2 #3 #4 #5),提供一个可访问的研究模板来预训练和微调T5风格(编码器-解码器)模型。据我们所知,这是首次尝试在PyTorch中复现T5 v1.1预训练(之前可用的实现都是在Jax/Flax中)。
**我们创建这个仓库是为了那些想自己预训练T5风格模型并评估其在下游任务上性能的人。**这可能出于各种原因:
如果您不需要预训练T5模型,最好从HuggingFace Hub下载权重。由于我们在有限计算资源下工作,我们的检查点性能较差。
在这个项目中,我们公开(出于研究目的)并优化了T5训练流程中的所有内容,除了模型实现。我们包含了T5模型的简化实现(这对教学和学习目的很好) ,但是我们没有使用最新技术(如张量或流水线并行)进行优化,因为这会使代码变得更复杂,而且在小规模上并不需要。**最重要的是,我们的代码基于PyTorch,因为对TPU的访问有限。**主要特点:
git clone https://github.com/PiotrNawrot/nanoT5.git
cd nanoT5
conda create -n nanoT5 python=3.8
conda activate nanoT5
pip install -r requirements.txt
以上命令将导致以下pip freeze,截至2023年6月18日。
我们还包含了我们的lscpu和nvidia-smi。
T5 v1.1的作者报告在C4的保留集上经过2^16步训练后,负对数似然(NLL)达到了1.942。
我们遵循原始的预训练实验设置,包括数据集(C4)、训练目标(跨度填充)、模型架构(T5-Base)、优化器(Adafactor)和学习率调度(反平方根)。
我们在保留集上的负对数似然为1.995,略差于参考值。
我们还尝试了AdamW优化器(而不 是原始的Adafactor),因为理论上它应该在训练过程中提供更好的稳定性。它不使用梯度二阶矩的低秩近似,而是通过在内存中存储每个参数的移动平均值来直接估计。但是,使用AdamW训练会发散,类似于这项关于T5预训练的研究。通过多次消融实验,我们发现按矩阵均方根(RMS)进行学习率缩放是Adafactor收敛的关键。我们通过RMS缩放增强了AdamW的实现,观察到它收敛了,在预训练过程中变得更加稳定,而且略快(它直接从内存中检索二阶矩,而不是通过矩阵乘法近似)。
然而,当与反平方根学习率调度配对时,AdamW的表现不如Adafactor。在最终实验中,我们用余弦学习率调度替代了反平方根。我们在保留集上实现了1.953的负对数似然,显著优于使用反平方根调度的Adafactor。我们认为这是我们的默认预训练配置。
反平方根 | 余弦 | |
---|---|---|
Adafactor | 1.995 | 1.993 |
AdamW | 2.040 | 1.953 |
要重现上述任何实验,请选择以下超参数的任意组合:
python -m nanoT5.main \
optim.name={adafactor,adamwscale} \
optim.lr_scheduler={legacy,cosine}
如果你能安装PyTorch 2.0,我们建议在预训练时添加model.compile=true
标志。
假设你无法访问80GB的A100 GPU。在这种情况下,你可以通过optim.grad_acc=steps
增加梯度累积步数,其中batch_size
必须能被steps
整除。
优化过程的摘要每100步以以下格式打印。例如:
[train] Step 100 out of 65536 | Loss --> 59.881 | Grad_l2 --> 61.126 | Weights_l2 --> 7042.931 | Lr --> 0.010 | Seconds_per_step --> 1.385 |
以下是我们预训练实验的效率统计。我们报告了模型完成1个预训练步骤所需的时间,以及根据默认配置的总预训练时间。请注意,我们需要增加optim.grad_acc steps以适应不同于BF16的精度。
<div align="center">混合精度格式 | Torch 2.0 compile | 梯度累积步数 | 预训练(1步) | 总预训练时间 |
---|---|---|---|---|
FP32 | 否 | 2 | ~4.10s | ~74.6h |
TF32 | 否 | 2 | ~1.39s | ~25.3h |
BF16 | 否 | 2 | ~1.30s | ~23.7h |
TF32 | 是 | 2 | ~0.95s | ~17.3h |
BF16 | 是 | 1 | ~0.56s | ~10.2h |
为了微调我们的模型,我们使用了流行的元数据集Super Natural-Instructions (SNI),它聚合了许多任务的数据集。这个元数据集被用于微调许多最近的LLM,例如FlanT5、BLOOM和Tk-Instruct。虽然FlanT5和BLOOM除了SNI还使用了其他语料库,但Tk-Instruct的流程包括从预训练的T5模型开始,仅在SNI上进行微调。
在本仓库中,我们重现了Tk-Instruct的微调结果,并遵循他们的流程来评估我们预训练的模型。
git clone https://github.com/allenai/natural-instructions.git data
我们严格遵循Tk-Instruct的微调配置。目前尚不清楚Tk-Instruct是从常规检查点(google/t5-v1_1-base)初始化的,还是从专门适用于语言建模的持续训练检查点(google/t5-base-lm-adapt)初始化的。因此,我们决定评估这两种情况。运行以下命令以重现Tk-Instruct实验:
python -m nanoT5.main task=ft \
model.name={google/t5-v1_1-base,google/t5-base-lm-adapt} \
model.random_init={true,false} \
model.checkpoint_path={"","/path/to/pytorch_model.bin"}
设置model.random_init=false model.checkpoint_path=""
对应从HuggingFace Hub下载预训练权重。
设置model.random_init=false model.checkpoint_path="/path/to/pytorch_model.bin"
对应使用nanoT5预训练的权重。
设置model.random_init=true model.checkpoint_path=""
对应随机初始化。
在下图中,我们比较了本仓库中在不同时间预算下(4、8、12、16、20、24小时)训练的模型性能与通过Huggingface Hub获得的原始T5-base-v1.1模型权重及其为语言建模适配的版本(google/t5-base-lm-adapt)。我们观察到,在单个GPU上训练16小时的模型平均RougeL值仅比原始T5-base-v1.1模型低0.2,尽管预训练数据量少了150倍(根据T5论文,他们以2048的批量大小预训练模型一百万步。我们的16小时配置以256的批量大小进行53332步)。专门为语言建模适配的检查点(google/t5-base-lm-adapt)表现优于原始T5-base-v1.1模型和我们的模型,但这超出了本仓库的范围。
我们在HuggingFace Hub上分享了经过24小时预训练的模型权重,您可以下载并使用nanoT5在SNI上进行微调。我们还分享了微调损失曲线。
单次微调步骤耗时约0.18 秒,完整微调需要约1小时。
我们展示了在有限预算(1个A100 GPU,< 24小时)下,使用PyTorch成功预训练"大型语言模型"(T5)是可能的。我们公开了我们的代码库、配置和训练日志,以提高NLP研究的可及性。我们期待听到您进一步改进代码库的建议。
感谢Edoardo Maria Ponti的反馈!
如果您发现本仓库有用,请考虑引用关于这项工作的论文。
@inproceedings{nawrot-2023-nanot5,
title = {nano{T}5: Fast {\&} Simple Pre-training and Fine-tuning of {T}5 Models with Limited Resources},
author = {Nawrot, Piotr},
year = 2023,
month = dec,
booktitle = {Proceedings of the 3rd Workshop for Natural Language Processing Open Source Software (NLP-OSS 2023)},
publisher = {Association for Computational Linguistics},
doi = {10.18653/v1/2023.nlposs-1.11},
url = {https://aclanthology.org/2023.nlposs-1.11}
}
下面您还可以找到一项使用nanoT5进行实验的出色工作。
@article{Kaddour2023NoTN,
title={No Train No Gain: Revisiting Efficient Training Algorithms For Transformer-based Language Models},
author={Jean Kaddour and Oscar Key and Piotr Nawrot and Pasquale Minervini and Matt J. Kusner},
journal={ArXiv},
year={2023},
volume={abs/2307.06440},
}
如果您有任何问题,欢迎提出Github issue或直接联系我:piotr.nawrot@ed.ac.uk
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号