gpu.cpp是一个轻量级库,旨在简化C++中的可移植GPU计算。
它专注于通用原生GPU计算,利用WebGPU规范作为可移植的低级GPU接口。这意味着我们可以在C++项目中嵌入GPU代码,并使其在Nvidia、Intel、AMD和其他GPU上运行。同样的C++代码可以在各种笔记本电脑、工作站、移动设备或几乎任何支持Vulkan、Metal或DirectX的硬件上运行。
通过gpu.cpp,我们希望为个人开发者和研究人员提供一个高杠杆率的库,只需要标准C++编译器作为工具,就能将GPU计算整合到程序中。我们的目标是:
实现旨在保持最小的API表面积和最少的样板代码。只需少量的库操作即可执行广泛的低级GPU操作。我们避免增加间接层的抽象,使gpu.cpp库与原始WebGPU API之间的映射在需要时清晰可见。
本着快速实验的精神,我们还希望C++构建几乎瞬时完成,即使在性能一般的个人计算设备上也不超过一两秒。考虑到这一点,我们不仅保持API表面积小,还保持实现小巧,并提供Dawn原生WebGPU实现的预构建二进制文件。
核心库在仅头文件的gpu.h源代码中的实现约为1000行代码。除了实现瞬时、半交互式的编译周期外,小型实现表面积还能降低维护负担并提高改进速度。
我们还将Google的Dawn WebGPU实现预构建为共享库二进制文件。这允许构建时链接共享库,并在不增加开发周期中重新编译Dawn成本的情况下,整合Google强大的原生WebGPU实现。
对于更高级的用户和发布部署,我们提供了使用cmake从头到尾构建Dawn和gpu.cpp的示例,但大多数用户无需也不建议这样做。
要构建gpu.cpp项目,您需要在系统上安装:
clang++编译器。python3或更高版本,用于运行下载Dawn共享库的脚本。make用于构建项目。sudo apt install libvulkan1 mesa-vulkan-drivers vulkan-tools来安装。gpu.cpp唯一的库依赖是WebGPU实现。目前我们支持Dawn原生后端,但计划支持其他目标和WebGPU实现(Web浏览器或其他原生实现如wgpu)。目前支持MacOS、Linux和Windows(通过WSL)。
可选地,可以使用提供的cmake构建脚本从头开始构建Dawn和gpu.cpp - 请参见Makefile中的-cmake目标。但这仅建议高级用户使用。使用cmake构建Dawn依赖项比使用预编译的Dawn共享库耗时更长。
克隆仓库后,在gpu.cpp的顶级目录中,您应该能够通过输入以下命令来构建和运行hello world GELU示例:
make
首次以这种方式构建和运行项目时,它会自动下载Dawn原生WebGPU实现的预构建共享库(使用setup.py脚本)。这会将Dawn共享库放置在third_party/lib目录中。之后,您应该在MacOS上看到libdawn.dylib或在Linux上看到libdawn.so。此下载仅发生一次。
构建过程本身应该只需要几秒钟。如果构建和执行成功,您应该看到GELU计算的输出:
Hello gpu.cpp!
--------------
gelu(0.00) = 0.00
gelu(0.10) = 0.05
gelu(0.20) = 0.12
gelu(0.30) = 0.19
gelu(0.40) = 0.26
gelu(0.50) = 0.35
gelu(0.60) = 0.44
gelu(0.70) = 0.53
gelu(0.80) = 0.63
gelu(0.90) = 0.73
gelu(1.00) = 0.84
gelu(1.10) = 0.95
...
计算了10000个GELU(x)值
如果需要清理构建产物,可以运行:
make clean
作为使用gpu.cpp的实际但简单的示例,让我们从神经网络中的一个实用GPU内核开始。
GELU是一种非线性的、高度并行的操作,常用于现代大型语言模型的基于Transformer的架构中。
它接受一个浮点数向量作为输入,并对向量的每个元素应用GELU函数。该函数是非线性的,将小于零的值衰减到接近零,对于大的正值近似于y = x恒等函数。对于接近零的值,GELU在恒等函数和零函数之间平滑插值。
以下GELU代码将说明使用gpu.cpp设置GPU计算的三个主要方面:
在GPU上运行的代码(使用WebGPU着色语言,即WGSL),实现计算操作。
在CPU上运行的C++代码,通过分配和准备资源来设置GPU计算。为了高性能,这些代码应该在应用程序的热路径之外提前运行。
在CPU上运行的C++代码,用于调度GPU计算并检索结果。热路径调度代码的主要关注点是消除或最小化任何不必要的资源分配或数据移动(将这些关注点转移到第2步)。次要考虑是GPU调度是异步的。我们使用标准C++异步原语来管理内核调度的异步方面。
这里是一个GELU内核的实现(基于llm.c中的CUDA实现),作为设备上的WebGPU WGSL代码,并使用gpu.cpp库函数和类型从主机调用。它可以使用标准C++编译器编译(我们推荐使用Clang):
#include <array> #include <cstdio> #include <future> #include "gpu.h" using namespace gpu; // createContext, createTensor, createKernel, // dispatchKernel, wait, toCPU Bindings, // Tensor, Kernel, Context, Shape, kf32 static const char *kGelu = R"( const GELU_SCALING_FACTOR: f32 = 0.7978845608028654; // sqrt(2.0 / PI) @group(0) @binding(0) var<storage, read_write> inp: array<{{precision}}>; @group(0) @binding(1) var<storage, read_write> out: array<{{precision}}>; @compute @workgroup_size({{workgroupSize}}) fn main( @builtin(global_invocation_id) GlobalInvocationID: vec3<u32>) { let i: u32 = GlobalInvocationID.x; if (i < arrayLength(&inp)) { let x: f32 = inp[i]; out[i] = select(0.5 * x * (1.0 + tanh(GELU_SCALING_FACTOR * (x + .044715 * x * x * x))), x, x > 10.0); } } )"; int main(int argc, char **argv) { Context ctx = createContext(); static constexpr size_t N = 10000; std::array<float, N> inputArr, outputArr; for (int i = 0; i < N; ++i) { inputArr[i] = static_cast<float>(i) / 10.0; // 虚拟输入数据 } Tensor input = createTensor(ctx, Shape{N}, kf32, inputArr.data()); Tensor output = createTensor(ctx, Shape{N}, kf32); std::promise<void> promise; std::future<void> future = promise.get_future(); Kernel op = createKernel(ctx, {kGelu, /* 1-D工作组大小 */ 256, kf32}, Bindings{input, output}, /* 工作组数量 */ {cdiv(N, 256), 1, 1}); dispatchKernel(ctx, op, promise); wait(ctx, future); toCPU(ctx, output, outputArr.data(), sizeof(outputArr)); for (int i = 0; i < 16; ++i) { printf(" gelu(%.2f) = %.2f\n", inputArr[i], outputArr[i]); } return 0; }
在这里我们可以看到GPU代码是用一种称为WGSL(WebGPU着色语言)的领域特定语言编写的。在更大的项目中,你可能会将这些代码存储在单独的文件中,以便在运行时加载(请参阅examples/shadertui,查看实时WGSL代码重新加载的演示)。
main()中的CPU代码设置了GPU计算的主机协调。我们可以将gpu.cpp库的使用看作是一系列GPU名词和动词的集合。
"名词"是由库的类型定义建模的GPU资源,而"动词"是对GPU资源的操作,由库的函数建模。预先资源获取函数以create*为前缀,例如:
createContext() - 构造一个指向GPU设备上下文的引用(Context)。createTensor() - 在GPU上获取一个连续的缓冲区(Tensor)。createKernel() - 构造一个指向GPU计算资源的句柄(Kernel),将着色器代码作为输入,并绑定张量资源。这些资源获取函数与用于与GPU交互的资源类型相关联:
Context - 用于与GPU设备交互的资源状态的句柄。Tensor - GPU上的数据缓冲区。KernelCode - 可以分派到GPU的WGSL程序的代码。这是WGSL字符串的一个简单封装,还包括代码设计运行的工作组大小。Kernel - 可以分派到GPU的GPU程序。它接受一个KernelCode和一个要绑定的Tensor资源列表用于分派计算。它接受一个Bindings参数,这是一个Tensor实例列表,应该映射到WGSL代码顶部声明的绑定。在这个例子中,有两个绑定,分别对应GPU上的input缓冲区和output缓冲区。在这个例子中,GELU计算只执行一次,程序立即退出,因此资源准备和分派是并排的。examples/目录中的其他示例说明了如何提前准备资源获取,而分派则发生在热路径中,如渲染、 模型推理或模拟循环。
除了create*资源获取函数外,gpu.cpp库中还有一些用于处理向GPU分派执行和数据移动的"动词":
dispatchKernel() - 将Kernel分派到GPU进行计算。这是一个异步操作,立即返回。wait() - 阻塞直到GPU计算完成。这是一个标准的C++ future/promise模式。toCPU() - 将数据从GPU移动到CPU。这是一个同步操作,阻塞直到数据复制完成。toGPU() - 将数据从CPU移动到GPU。这是一个同步操作,阻塞直到数据复制完成。在这个特定的例子中,没有使用toGPU(),因为程序中只有一次从CPU到GPU的数据移动,这发生在调用createTensor()函数时。这个例子可以在examples/hello_world/run.cpp中找到。
你可以探索examples/中的示例项目,这些项目展示了如何将gpu.cpp作为库使用。
在顶级目录中运行make获取预构建的Dawn共享库后,你可以通过导航到每个示例的目录并在该目录中运行make来运行每个示例。
examples/matmul中有一个分块矩阵乘法的例子。这实现了Simon Boehm的文章如何优化CUDA矩阵乘法内核以达到类似cuBLAS的性能:工作日志中前几个内核的WebGPU版本。目前在Macbook Pro M1 Max笔记本上运行速度约为2.5+ TFLOPs,而该设备的理论峰值为10.4 TFLOPs。欢迎贡献以进一步优化。
examples/physics展示了一个并行物理模拟,在GPU上使用不同的初始条件并行模拟一组双摆。
<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/00a7b574-46c9-46d2-af3f-d5a68c3e64ae.png" alt="matmul example output" width=40%> <img src="https://yellow-cdn.veclightyear.com/835a84d5/e159958f-0534-4c55-9fad-d72e2a1b53af.gif" alt="physics example animated gif" width=42%> </div>我们还展示了一些有符号距离函数计算的例子,在终端中以ASCII形式渲染。examples/render中展示了球体的3D SDF,而examples/shadertui中展示了类似shadertoy的实时重载示例。
有趣的是,给定一个起始示例,像Claude 3.5 Sonnet这样的LLM在为你编写低级WGSL代码方面相当有能力 - shadertui示例中的其他着色器就是由LLM编写的。
<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/20aa48ce-a5d0-406b-a99a-b0dd6b4f6be9.gif" alt="shadertui example animated gif" width=88%> </div>gpu.cpp旨在为需要可移植的设备上GPU计算的项目提供支持,同时最小化实现复杂性和摩擦。一些使用案例包括:
尽管gpu.cpp适用于任何通用GPU计算,而不仅仅局限于AI,但我们特别感兴趣的一个领域是探索新算法在训练后和设备上计算交叉点的极限。
迄今为止,AI研究主要以CUDA作为特权的一级目标进行构建。CUDA在大规模训练和推理方面一直占据主导地位,但在另一端的个人设备GPU计算世界中,硬件和软件栈存在更多的异构性。
在这个个人设备生态系统中,GPU计算主要局限于少数专家,如游戏引擎开发人员和直接从事ML编译器或推理运行时的工程师。与此同时,直接针对Vulkan甚至WebGPU API的实现往往主要针对基础设施规模的努力 - 游戏引擎、生产ML推理引擎、大型软件包。
我们希望让更广泛的项目能够更容易地利用个人设备上GPU的力量。只需少量代码,我们就能以低级别访问GPU,专注于直接实现算法,而不是围绕GPU的脚手架和技术栈。例如,在我们的AI研究中,有很多关于各种形式的动态/条件训练后计算的探索空间 - 动态使用适配器、稀疏性、模型压缩、实时多模态集成等。
gpu.cpp让我们能够实现和插入任何算法,对数据移动和GPU代码进行精细控制,并探索现有生产导向推理运行时支持范围之外的领域。同时,我们可以编写可移植的代码,可以立即在各种GPU供应商和计算形式上使用 - 工作站、笔记本电脑、移动设备,甚至新兴的硬件平台,如AR/VR和机器人技术。
gpu.cpp适用于对C++和GPU编程有一定熟悉度的开发人员。它不是一个高级数值计算或机器学习框架或推理引擎,尽管它可以用于支持此类实现。
其次,尽管名字如此,WebGPU有与网络和浏览器解耦的原生实现。gpu.cpp首先利用WebGPU作为一个可移植的原生GPU API,未来在浏览器中运行的可能性是一个便利的额外好处。
如果你觉得WebGPU是一种原生技术而不仅仅是用于网络这一点令人困惑,那么请观看Elie Michel的精彩演讲"WebGPU不仅仅关于网络"。
最后,gpu.cpp的重点是通用GPU计算,而不是GPU上的渲染/图形,尽管它可以用于离线渲染或视频处理用例。我们将来可能会探索图形方面的方向,但目前我们的重点是GPU计算。
API改进 - gpu.cpp还在开发中,还有许多功能和改进有待推出。在这个早期阶段,我们预计API设计将随着我们从用例中识别改进/需求而不断发展。特别是,结构化参数的处理和异步分派在短期内将会经历完善和成熟。 浏览器目标 - 尽管使用了WebGPU,但我们还没有测试针对浏览器的构建,不过这是短期的优先事项。
可重用内核库 - 目前,核心库严格限于用于与WebGPU API接口的操作和类型,在examples/中有一些特定用例的WGSL实现示例。随着时间推移,当内核实现成熟后,我们可能会将一些可重用的操作从特定示例迁移到一个小型的可重用内核库中。
更多用例示例和测试 - 预计会有一个用例迭代循环,以设计调整和改进,这反过来会使用例更加清晰和易于编写。一个短期用例是以WebGPU形式充实llm.c中的内核。随着这些成熟为可重用的内核库,我们希望帮助实现WebGPU计算在AI中的潜力。
如果您在构建项目时遇到问题,请开一个issue。
gpu.cpp使用了:
也感谢Answer.AI团队的同事们提供的支持、测试帮助和反馈。
加入我们在AnswerDotAI Discord的#gpu-cpp频道。也欢迎通过X @austinvhuang联系。
欢迎反馈、提出问题和提交拉取请求。
对于贡献者,以下是关于gpu.cpp库设计和风格的一般经验法则:
美学 - 最大化杠杆作用并考虑摩擦源:
重载和模板:
避免封装和方法:
create[X]约定的工厂函数 - createTensor、createKernel、createContext等。所有权:
将资源获取与热路径分离:


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号