maxtext

maxtext

高性能与可扩展的开源大模型解决方案,支持TPUs与GPUs

MaxText是一个高性能、可扩展的开源大模型,采用纯Python和Jax编写,专为Google Cloud的TPUs和GPUs设计。支持训练和推理,能够从单个主机扩展到大型集群,且无需复杂优化。MaxText适用于研究和生产中的大型语言模型项目,支持Llama2、Mistral和Gemma模型,并提供详细的入门指南和性能测试结果。

MaxTextTPUGPUJaxLLMGithub开源项目
<!-- 版权所有 2024 Google LLC 根据Apache许可证2.0版(“许可证”)授权许可; 除非符合许可证,否则您不能使用此文件。 您可以在以下网址获取许可证的副本: https://www.apache.org/licenses/LICENSE-2.0 除非适用法律要求或书面同意,否则依据许可证分发的软件 是按“原样”提供的,不附带任何明示或暗示的担保或条件。 请参阅许可证了解管理权限和 许可证下的限制。 -->

单元测试

概述

MaxText是一个高性能高度可扩展开源的LLM,完全用Python/Jax编写,目标是Google Cloud的TPU和GPU进行训练推理。借助Jax和XLA编译器的强大功能,MaxText实现了高MFU,并且可以从单主机扩展到非常大的集群,同时保持简单且“无优化”。

MaxText旨在成为研究和生产中雄心勃勃的LLM项目的起点。我们鼓励用户首先直接使用MaxText进行实验,然后分叉并修改MaxText以满足他们的需求。

我们使用MaxText 演示了int8的高性能、良好收敛训练以及将训练规模扩展到约51K芯片

支持的主要功能:

  • TPU和GPU(预览中)
  • 训练和推理(预览中)
  • 模型:Llama2、Mistral和Gemma

目录

快速开始

首次运行MaxText时,我们提供了详细的说明

MaxText支持各种开源模型的训练和推理。请参阅快速入门文件夹中的用户指南以了解更多信息。

一些额外的有用指南:

  • Gemma:一个由Google DeepMind基于Gemini研究和技术开发的开源权重大型语言模型(LLM)家族。您可以使用这些说明进行解码和微调。
  • Llama2:一个由Meta开发的开源权重大型语言模型(LLM)家族。您可以使用这些说明进行解码和微调。
  • Mixtral:一个由Mistral AI开发的开源权重稀疏专家混合(MoE)模型家族。您可以使用这些说明进行解码和微调。

除了快速入门指南外,还有许多不断添加的MaxText功能!完整的端到端测试套件在end_to_end中。我们以每夜的频率运行它们。它们可以成为理解MaxText的良好来源。或者,您可以查看几乎持续运行的单元测试

运行时性能结果

有关复现这些结果的更多细节,请参阅MaxText/configs/README.md

TPU v5p

参数数量加速器类型TFLOP/芯片/秒模型运算利用率(MFU)
32Bv5p-1283.28e+0271.47%
64Bv5p-1283.23e+0270.31%
128Bv5p-2563.15e+0268.68%
128Bv5p-5123.15e+0268.53%
256Bv5p-10243.16e+0268.82%
512Bv5p-10242.94e+0263.99%
1024Bv5p-20482.49e+0264.05%
1024Bv5p-40962.97e+0264.80%
1160Bv5p-76802.95e+0264.27%
1160Bv5p-122883.04e+0266.23%

TPU v5e

适用于16B、32B、64B和128B模型。完整的运行配置见MaxText/configs/v5e/中的16b.sh32b.sh64b.sh128b.sh

硬件16B TFLOP/秒/芯片16B MFU32B TFLOP/秒/芯片32B MFU64B TFLOP/秒/芯片64B MFU128B TFLOP/秒/芯片128B MFU
1x v5e-25612061.10%13266.86%11859.90%11056.06%
2x v5e-25611759.37%12864.81%11256.66%11055.82%
4x v5e-25611759.14%12664.10%11055.85%10854.93%
8x v5e-25611558.27%12563.67%10854.96%10452.93%
16x v5e-25611156.56%12362.26%10553.29%10050.86%
32x v5e-25610854.65%11960.40%9950.18%9146.25%

与其他方案的比较

MaxText受到了MinGPT/NanoGPT的启发,这是一种优雅的独立GPT实现,使用PyTorch编写,目标是Nvidia GPU。MaxText更复杂,支持更多行业标准模型并扩展到数万个芯片。最终,MaxText的MFU比最近报告的代码库中的17%高出三倍多,具有大规模扩展性,并实现了用于高效自回归解码的键值缓存。

MaxText更类似于Nvidia/Megatron-LM,后者是一个非常优化的LLM实现,目标是Nvidia GPU。这两个实现实现了可比的MFU。代码库的差异突显了不同的编程策略。MaxText是纯Python,主要依赖于XLA编译器来实现高性能。相比之下,Megatron-LM是Python和CUDA的混合体,依赖于优化良好的CUDA内核来实现高性能。

MaxText还可以与Pax进行比较。与Pax一样,MaxText在Jax中提供了高性能和可扩 以下配置将有助于调试故障或在程序卡住或挂起时通过收集堆栈跟踪进行调试。在 MaxText/configs/base.yml 中相应更改参数值:

  1. 设置 collect_stack_trace: True 以在故障或程序挂起时启用堆栈跟踪收集。此设置将定期转储程序的跟踪信息以帮助调试。要禁用此功能,设置 collect_stack_trace: False
  2. 设置 stack_trace_to_cloud: False 以在控制台上显示堆栈跟踪。stack_trace_to_cloud: True 会在 TPUs 的 /tmp/debugging 中创建一个临时文件来存储堆栈跟踪。有一个代理在 TPU 虚拟机上运行,会定期将临时目录中的跟踪信息上传到 gcp 项目的云日志。您可以使用以下查询在云日志的日志资源管理器中查看跟踪信息:
    logName="projects/<project_name>/logs/tpu.googleapis.com%2Fruntime_monitor"
    jsonPayload.verb="stacktraceanalyzer"
    
  3. stack_trace_interval_seconds 表示每次堆栈跟踪收集事件之间的秒数。在 stack_trace_interval_seconds: 600 中设置将会每 600 秒(10 分钟)收集一次堆栈跟踪。

这是相关的 PyPI 包:https://pypi.org/project/cloud-tpu-diagnostics。

提前编译(AOT)

为了提前编译您的训练任务,我们提供了一个工具 train_compile.py。此工具允许您为目标硬件提前编译 train.py 中的主要 train_step(例如大量 v5e 设备)而无需使用整个集群。

TPU 支持

您可以仅使用 CPU 或从不同家族的单个 VM 来为 TPU 集群进行预编译。此编译有助于实现以下两个主要目标:

  • 它将标记任何内存不足(OOM)的信息,例如当 per_device_batch_size 设置过高时,与在目标硬件上编译时相同的 OOM 堆栈跟踪。
  • 提前编译可以保存并加载,以实现目标硬件上的快速启动和重新启动时间。

工具 train_compile.pytrain.py 紧密相关,并使用相同的配置文件 configs/base.yml。虽然您不需要在 TPU 上运行,但需要安装 jax[tpu] 以及其他依赖项,因此我们建议运行 setup.sh 来安装这些依赖项(如果尚未安装)。

示例 AOT 1:提前编译基础

在安装了上述依赖项后,您已经准备好提前编译:

# 在单台机器上运行,例如 CPU
python3 MaxText/train_compile.py MaxText/configs/base.yml compile_topology=v5e-256 compile_topology_num_slices=2 \
global_parameter_scale=16 per_device_batch_size=4

这将在两个 v5e 节点上编译一个 16B 参数的 MaxText 模型。

示例 AOT 2:保存已编译的函数,然后加载并运行它

以下示例保存并加载已编译的 train_step,从保存开始:

步骤 1:运行 AOT 并保存已编译的函数

# 在单台机器上运行,例如 CPU
export LIBTPU_INIT_ARGS="--xla_enable_async_all_gather=true"
python3 MaxText/train_compile.py MaxText/configs/base.yml compile_topology=v5e-256 \
compile_topology_num_slices=2 \
compiled_trainstep_file=my_compiled_train.pickle global_parameter_scale=16 \
per_device_batch_size=4 steps=10000 learning_rate=1e-3

步骤 2:运行 train.py 并加载已编译的函数

要加载已编译的 train_step,只需将 compiled_trainstep_file=my_compiled_train.pickle 传入 train.py

# 在目标硬件的每个主机上运行,例如在两个 v5e-256 薄片的每个主机上
export LIBTPU_INIT_ARGS="--xla_enable_async_all_gather=true"
python3 MaxText/train.py MaxText/configs/base.yml run_name=example_load_compile \
compiled_trainstep_file=my_compiled_train.pickle \
global_parameter_scale=16  per_device_batch_size=4 steps=10000 learning_rate=1e-3 \
base_output_directory=gs://my-output-bucket dataset_path=gs://my-dataset-bucket

在上述示例 2 的保存步骤中,我们包括了导出编译器标志 LIBTPU_INIT_ARGSlearning_rate,因为这些会影响到已编译的对象 my_compiled_train.pickle。当您通过 compile_train.py 初次编译时,模型的大小(例如 global_parameter_scalemax_sequence_lengthper_device_batch)是固定的,如果您尝试使用与编译时不同的大小运行保存的已编译对象,您会看到一个大小错误。然而,一个细微的备注是 学习率计划 也是在运行 compile_train 时固定的 - 这由 stepslearning_rate 共同决定。优化器参数如 adam_b1 仅作为形状对象传递给编译器 - 因此它们的实际值是在运行 train.py 时确定的,而不是在编译期间。如果您传递了不同形状(例如 per_device_batch),您会得到一个明确的错误消息,报告已编译签名与输入的形状期望不同。如果您尝试在与通过 compile_topology 请求的编译目标不同的硬件上运行,您会收到一个错误,提示无法将设备从已编译映射到您的实际设备。使用与编译时不同的 XLA 标志或 LIBTPU 可能会在编译环境中无错误地运行。然而,在这种情况下,没有保证的行为;您应该在与编译环境相同的环境中运行。

GPU 支持

GPU 也支持提前编译,但与 TPU 有一些不同之处:

  1. GPU 不支持跨硬件编译:仍需要 GPU 主机运行提前编译,但单个 GPU 主机可以为更大的相同硬件集群编译程序。
  2. 对于 A3 云 GPU,最大“分片”大小是一台主机,而 compile_topology_num_slices 参数代表预编译的 A3 机器数量。

示例

此示例说明了用于多主机 GPU 编译的标志,目标是 4 个 A3 主机的集群:

步骤 1:运行 AOT 并保存已编译的函数

# 在单个 A3 机器上运行
export XLA_FLAGS="--xla_gpu_enable_async_collectives=true"
python3 MaxText/train_compile.py MaxText/configs/base.yml compile_topology=a3 \
compile_topology_num_slices=4 \
compiled_trainstep_file=my_compiled_train.pickle global_parameter_scale=16 \
attention=dot_product per_device_batch_size=4 steps=10000 learning_rate=1e-3

步骤 2:运行 train.py 并加载已编译的函数

要加载已编译的 train_step,只需将 compiled_trainstep_file=my_compiled_train.pickle 传入 train.py

# 在四个目标 A3 主机上的每个主机上运行
export XLA_FLAGS="--xla_gpu_enable_async_collectives=true"
python3 MaxText/train.py MaxText/configs/base.yml run_name=example_load_compile \
compiled_trainstep_file=my_compiled_train.pickle \
attention=dot_product global_parameter_scale=16  per_device_batch_size=4 steps=10000 learning_rate=1e-3 \
base_output_directory=gs://my-output-bucket dataset_path=gs://my-dataset-bucket

如同 TPU 的情况一样,注意编译环境必须与执行环境匹配,在这种情况下,通过设置相同的 XLA_FLAGS

自动上传日志到 Vertex Tensorboard

MaxText 支持将收集到的日志自动上传到 Vertex AI 的 Tensorboard 实例。请参阅用户指南了解更多信息。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多