lightning-thunder

lightning-thunder

PyTorch模型优化编译器 显著提升训练速度

Lightning Thunder是一款专为PyTorch设计的源到源编译器。它通过整合nvFuser、torch.compile、cuDNN等多种硬件执行器,大幅提升PyTorch程序的执行效率。支持单GPU和多GPU环境,在Llama 2 7B模型训练中实现40%的吞吐量提升。Thunder具有易用性、可理解性和可扩展性,是PyTorch开发者提升模型性能的有力工具。

PyTorch性能优化编译器深度学习GPU加速Github开源项目
<div align="center"> <img alt="Thunder" src="https://raw.githubusercontent.com/Lightning-AI/lightning-thunder/main/docs/source/_static/images/LightningThunderLightModewByline.png#gh-light-mode-only" width="400px" style="max-width: 100%;"> <img alt="Thunder" src="https://raw.githubusercontent.com/Lightning-AI/lightning-thunder/main/docs/source/_static/images/LightningThunderDarkModewByline.png#gh-dark-mode-only" width="400px" style="max-width: 100%;"> <br/> <br/>

让PyTorch模型快如闪电。


<p align="center"> <a href="https://lightning.ai/">Lightning.ai</a> • <a href="#performance">性能</a> • <a href="#get-started">开始使用</a> • <a href="#install-thunder">安装</a> • <a href="#hello-world">示例</a> • <a href="#inside-thunder-a-brief-look-at-the-core-features">Thunder内部</a> • <a href="#get-involved">参与其中</a> • <a href="https://lightning-thunder.readthedocs.io/en/latest/">文档</a> </p>

license CI testing General checks Documentation Status pre-commit.ci status

</div>

欢迎使用 ⚡ Lightning Thunder

Thunder让PyTorch模型快如闪电。

Thunder是PyTorch的源到源编译器。它通过结合并同时使用不同的硬件执行器(例如,nvFusertorch.compilecuDNNTransformerEngine FP8)来加速PyTorch程序。

它支持单GPU和多GPU配置。 Thunder旨在易用、易懂且可扩展。

 

[!Note] Lightning Thunder处于alpha阶段。欢迎参与其中,但请做好遇到一些问题的准备。

 

单GPU性能

相比标准的非编译PyTorch代码("PyTorch eager"),Thunder可以通过优化的叠加效应和使用最佳执行器实现显著的加速。下图展示了LitGPT中实现的Llama 2 7B模型的预训练吞吐量。

<div align="center"> <img alt="Thunder" src="https://yellow-cdn.veclightyear.com/835a84d5/09e0439f-d5fe-454f-b5b3-7008383a85f4.png" width="800px" style="max-width: 100%;"> </div>

如上图所示,在H100上使用包括nvFuser、torch.compile、cuDNN和TransformerEngine FP8在内的执行器组合,Thunder相比eager代码在训练吞吐量上实现了40%的加速。

 

多GPU性能

Thunder还支持分布式策略,如DDP和FSDP,用于在多个GPU上训练模型。以下图表显示了Llama 2 7B模型在不使用FP8混合精度的情况下测得的标准化吞吐量;对FSDP的支持正在进行中。

<div align="center"> <img alt="Thunder" src="https://yellow-cdn.veclightyear.com/835a84d5/3c2a340c-cc9f-4ab4-a322-c77180399baa.png" width="800px" style="max-width: 100%;"> </div>

 

开始使用

开始使用Thunder最简单的方法是使用我们的Zero to Thunder教程工作室,无需额外安装或设置。

 

安装Thunder

要在本地机器上使用Thunder:

  • 按以下方式一起安装nvFuser每日版和PyTorch每日版:
# 安装nvFuser,它会安装匹配的每日版PyTorch pip install --pre 'nvfuser-cu121[torch]' --extra-index-url https://pypi.nvidia.com
  • 按以下方式安装cudnn
# 安装cudnn pip install nvidia-cudnn-frontend
  • 最后,按以下方式安装Thunder:
# 安装thunder
pip install lightning-thunder
<details> <summary>高级安装选项</summary>

 

从main分支安装

或者,您可以直接从此GitHub仓库安装Thunder的最新版本,方法如下:

# 1) 安装nvFuser和PyTorch每日版依赖:
pip install --pre 'nvfuser-cu121[torch]' --extra-index-url https://pypi.nvidia.com
# 2) 安装 Thunder 本身 pip install git+https://github.com/Lightning-AI/lightning-thunder.git

 

安装以进行修改和贡献

如果您有兴趣修改和为 Thunder 做出贡献,我们建议克隆 Thunder 仓库并以 pip 的可编辑模式安装:

git clone https://github.com/Lightning-AI/lightning-thunder.git cd lightning-thunder pip install -e .

 

开发和运行测试

在按上述方法克隆 lightning-thunder 仓库并将其安装为可编辑包后,您可以通过安装开发要求来设置用于开发 Thunder 的环境:

pip install -r requirements/devel.txt

现在您可以运行测试:

pytest thunder/tests

Thunder 经过非常彻底的测试,所以预计这将需要一段时间。

</details>

 

Hello World

以下是一个简单的示例,展示了 Thunder 如何允许您编译和运行 PyTorch 代码:

import torch import thunder def foo(a, b): return a + b jfoo = thunder.jit(foo) a = torch.full((2, 2), 1) b = torch.full((2, 2), 3) result = jfoo(a, b) print(result) # 输出 # tensor( # [[4, 4] # [4, 4]])

编译后的函数 jfoo 接受并返回 PyTorch 张量,就像原始函数一样,因此由 Thunder 编译的模块和函数可以作为更大的 PyTorch 程序的一部分使用。

 

训练模型

Thunder 仍处于早期阶段,尚不应用于生产运行。

然而,它已经能够为 LitGPT 支持的 LLM(如 Mistral、Llama 2、Gemma、Falcon 等)的预训练和微调提供卓越的性能。

查看 LitGPT 集成 以了解如何一起运行 LitGPT 和 Thunder。

 

深入 Thunder:核心功能简介

给定一个 Python 可调用对象或 PyTorch 模块,Thunder 可以生成一个优化的程序,该程序:

  • 计算其前向和反向传播
  • 将操作合并为高效的融合区域
  • 将计算分派到优化的内核
  • 在机器之间优化分配计算

为此,Thunder 提供了:

  • 一个 JIT,用于获取针对 PyTorch 和自定义操作的 Python 程序
  • 一个多层中间表示(IR),用于将操作表示为简化操作集的跟踪
  • 一组可扩展的计算图跟踪转换,如 grad、融合、分布式(如 ddpfsdp)、函数式(如 vmapvjpjvp
  • 一种将操作分派到可扩展的执行器集合的方法

Thunder 完全用 Python 编写。即使在所有转换阶段,其跟踪也表示为有效的 Python。这允许前所未有的内省和可扩展性水平。

Thunder 不直接为加速器(如 GPU)生成代码。它获取并转换用户程序,以便可以使用快速执行器最优地选择或生成设备代码,如:

用 Thunder 编译的模块和函数与原生 PyTorch 完全互操作,并支持 PyTorch 的自动微分。此外,Thunder 可以与 torch.compile 一起工作,以利用其最先进的优化。

 

文档

在线文档 可用。要在本地构建文档,您可以使用

make docs

并将浏览器指向 docs/build/index.html 生成的文档。

 

参与其中!

我们感谢您的反馈和贡献。如果您有功能请求、问题或想贡献代码或配置文件,请不要犹豫,使用 GitHub Issue 跟踪器。

我们欢迎所有个人贡献者,无论他们的经验水平或硬件如何。您的贡献都是宝贵的,我们很高兴看到您在这个协作和支持的环境中能够取得什么成就。

 

许可证

Lightning Thunder 根据 Apache 2.0 许可发布。 详情请参阅 LICENSE 文件。

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多