JAX和序列建模的完美结合

RayRay
JAXseqaxLLMFSDP性能优化Github开源项目

seqax

seqax简介

seqax是一个专为小到中等规模的大型语言模型(LLM)预训练研究而设计的代码库。它巧妙地将序列建模与JAX框架相结合,为研究人员提供了一个强大而灵活的工具。seqax的核心优势在于其简洁性和高效性 - 整个训练程序,包括模型实现、优化器、多主机FSDP和张量并行分区,仅用500行代码就能实现。这种精简的设计不仅使代码易于理解和修改,还能在约100个GPU或TPU上实现良好的扩展性能。

seqax logo

seqax的核心特性

seqax的设计理念是将重要信息置于显著位置,而不是隐藏在抽象和间接引用之后,或通过自动和不可预测的方式推断。这种设计理念体现在以下几个方面:

  1. 数学透明性: seqax直接实现了训练步骤中的所有数学计算,而不是调用外部库。这意味着如果你想理解或修改数学逻辑,所有内容都清晰可见。

  2. 内存管理: 所有进入模型检查点的张量都是显式的。占用大量内存的张量,包括为反向传播保存的激活值,也都是显式的。你可以直接从源代码中读取内存占用情况。

  3. 分区和通信: 所有张量和操作的分区布局都是显式的。所有芯片间通信也是显式的。

这种设计方法使得seqax成为一个透明、可控且易于理解的工具,特别适合那些希望深入了解和定制LLM训练过程的研究人员。

快速入门指南

要开始使用seqax,首先需要进行安装和环境配置:

  1. 从系统包管理器安装graphviz,例如使用brew install graphvizapt install graphviz

  2. 安装Python依赖,通常在虚拟环境中执行:python -m pip install -r requirements-cpu.txt

注意:对于GPU或TPU安装,可能需要不同的JAX和jaxlib安装方式。请参考JAX安装文档以获取详细信息。

CPU本地开发

对于开发和测试,可以在CPU上运行seqax。通常会使用合成数据集或Huggingface数据加载器,并设置XLA标志以模拟多设备环境:

XLA_FLAGS=--xla_force_host_platform_device_count=8 python -m train --config-name=local_test_synthetic +paths.model_name=synthetic_000

paths.model_name标志指定了在磁盘上写入模型检查点的子目录(在/tmp内)。每次开始新的模型运行时,通常需要更改此设置。

GPU运行

seqax提供了一系列预配置的模型大小,可以在C4数据集上使用Llama分词器进行训练。你可以在configs/目录中浏览并选择合适的配置文件。每个配置文件的顶部都列出了运行说明。

建议为每个不同的训练运行设置唯一的paths.model_name。这个路径指定了在磁盘上写入模型检查点的子目录。

性能表现

seqax在A100集群上的最近基准测试结果令人印象深刻:

单主机A100x8:

模型大小MFU (模型FLOPS利用率)
84m14
270m24
540m35
1b41.6
2b50.66

4个A100x8主机(使用InfiniBand连接):

模型大小MFU
1b32.4
2b39.0

这些数据显示,seqax能够在各种模型规模上实现良好的性能,特别是在较大模型上表现出色。

数据加载器

seqax支持两种主要的数据加载方式:

  1. 直接从Huggingface流式传输训练数据(参见示例配置)。

  2. 先将训练数据转换为预分词的磁盘格式,称为flat-tokens(参见示例配置).

从Huggingface流式传输允许快速试验不同的数据集,但它不支持在作业中断后从检查点高效恢复训练,并且在批处理边界会浪费一些数据集中的标记。相比之下,flat-tokens格式支持从检查点高效恢复训练,使用100%的标记进行训练,并且在训练期间消耗更少的CPU时间。

要预先对训练数据进行分词,可以运行huggingface_to_flat_tokens.py脚本。在现代CPU上,此脚本每分钟可处理约1亿个标记。

shardlib: 表达分区和通信的新方法

seqax引入了一个名为shardlib的新库,用于在JAX中表达分区和通信。这个库借鉴了jaxtypingeinopsequinoxshard_map的思想和风格。

shardlib的核心思想是通过类型注解和特殊的语法来表达张量的分片和通信操作。例如,为了实现完全分片的数据并行(FSDP)处理一个简单的全连接神经网络,可以这样写:

@pytree_dataclass class Weights: w1: f32['in hidden1/d'] w2: f32['hidden1 hidden2/d'] w3: f32['hidden2/d'] @typed_shard_map def forward_pass(x: f32[b'batch/d in'], w: Weights) -> f32[b'batch/d']: w1 = shardops.all_gather('in hidden1/d -> in hidden1', w.w1) y = jax.nn.relu(shardops.einsum_unreduced('batch/d in, in hidden1 -> batch/d hidden1', x, w1)) w2 = shardops.all_gather('hidden1 hidden2/d -> hidden1 hidden2', w.w2) z = jax.nn.relu(shardops.einsum_unreduced('batch/d hidden1, hidden1 hidden2 -> batch/d hidden2', y, w2)) w3 = shardops.all_gather('hidden2/d -> hidden2', w.w3) return shardops.einsum_unreduced('batch/d hidden2, hidden2 -> batch/d', z, w3)

这种方法使得分片和通信操作变得清晰可见,同时保持了代码的简洁性和可读性。

使用save_for_backward表达激活检查点

seqax提供了一种简单的方法来控制前向传播中哪些中间计算结果应该保存到HBM以供后向传播使用。这是通过save_for_backward函数实现的:

@explicit_activation_checkpointing def forward_pass(x, w1, w2): y = save_for_backward(x @ w1) z = jax.nn.relu(z) return z @ w2

使用@explicit_activation_checkpointing装饰器可以改变JAX的默认策略,只保存被注解函数的参数,以及任何使用save_for_backward标记的中间结果。这种方法给予了开发者更多的控制权,可以精确地指定哪些计算结果需要保存。

性能分析

seqax在每次训练运行中都会收集并报告性能信息:

  • 两个训练步骤的时间(包括中间的数据获取)。这会输出到标准输出。
  • 这些步骤的模型FLOPS利用率(MFU)效率。同样输出到标准输出。
  • XLA性能分析。保存在模型目录的<model_dir>/plugins/profile/<date>/perfetto_trace.json.gz中。
  • 优化后的XLA计算图的SVG渲染。保存在<model_dir>/training_step_optimized_hlo_<date>.svg中。

这些详细的性能信息使得研究人员能够深入了解模型的运行情况,并进行必要的优化。

文件格式

seqax使用基于zarr的简单文件格式来存储检查点和数据集。具体规范可以查看:

这些格式设计简单而高效,便于研究人员理解和使用。

结语

seqax为LLM预训练研究提供了一个强大、灵活且高效的工具。它的设计理念强调透明性和可控性,使研究人员能够深入理解和定制训练过程的每个方面。通过结合JAX的高性能计算能力和创新的分片、通信表达方式,seqax在保持代码简洁性的同时,实现了出色的性能表现。

对于那些希望在LLM预训练领域进行深入研究的人来说,seqax无疑是一个值得关注的项目。它不仅提供了必要的工具和功能,还通过其透明的设计哲学,鼓励研究人员深入理解和改进LLM训练的每个环节。

seqax的开发得到了多方面的支持和启发,包括来自JAX团队的持续支持和建议,以及Google TPU Research Cloud的部分支持。这种协作精神和开放态度,为推动LLM研究的进步做出了重要贡献。

随着AI和深度学习技术的不断发展,像seqax这样的工具将在推动研究边界方面发挥越来越重要的作用。我们期待看到更多研究人员利用seqax进行创新实验,为LLM领域带来新的突破和见解。

🚀 如果你对LLM预训练研究感兴趣,不妨尝试使用seqax,探索其强大功能,为你的研究注入新的活力! 💡

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多