Onnx2c是一个将ONNX转换为C代码的编译器。它可以读取ONNX文件,并生成可以包含在项目中的C代码。
Onnx2c的目标是"微型机器学习",即在微控制器上运行推理。为了使这一过程更简单,生成的代码具有以下特点:
#include <stdio.h>(即没有printf()函数)Onnx2c的设计理念是成为一个易于使用且无学习曲线的工具。如果你可以将训练好的神经网络导出为ONNX文件(例如PyTorch和Tensorflow都可以),并且你有一个可运行的微控制器项目,那么使用onnx2c将两者结合应该很容易。
为了更容易实现上述目标,onnx2c有一些非目标:
确保已安装ProtocolBuffers库,例如:
apt install libprotobuf-dev protobuf-compilerbrew install protobuf获取源代码:
git clone https://github.com/kraiskil/onnx2c.git
cd onnx2c
git submodule update --init
然后运行标准的CMake构建
mkdir build
cd build
cmake -DCMAKE_BUILD_TYPE=Release ..
make onnx2c
error: 'class onnx::ModelProto' has no member named 'ParseFromIstream';错误?如果你使用的是ProtoBuf 3.6或更早版本,需要对onnx/onnx/onnx.proto进行以下修改:
optimize_for = LITE_RUNTIME;)使用ProtoBuf 3.12(例如Ubuntu 20.10及以后版本)则不需要进行此修改。
3.6到3.12之间的版本尚未经过调查。
void* __builtin_memset ... is out of the bounds ...?在(至少)protobuf 3.6版本上,该版本是Ubuntu 20.04的默认版本,当onnx2c以Release模式构建时会失败。
将上述构建步骤更改为cmake -DCMAKE_BUILD_TYPE=Debug ..
或者更新你的protobuf版本。
参见kraiskil/onnx2c#39和onnx/onnx#4756。
构建过程会创建onnx2c可执行文件。
运行
./onnx2c [你的ONNX模型文件] > model.c
在model.c的末尾有一个名为'void entry(...)'的函数。
在你的主程序中调用该函数来运行推理。函数参数名称与ONNX模型中的名称相同。
在编译onnx2c生成的代码时使用编译器选项-ffast-math(或类似选项)可以提高计算速度。
详情请参阅GCC wiki关于浮点数学。
Onnx2c有几个优化过程来修改生成的输出:
Cast节点。./onnx2c -h可以打印出所有可用的命令行选项。
onnx2c在stdout上打印日志。可以使用-l N命令行选项设置日志级别。
日志级别包括:
有一个辅助脚本可以在MCU开发板上初步运行任何.onnx文件。这个脚本旨在作为设计网络时的工具,用于查看网络是否适合目标设备,然后再开始训练网络。
使用说明请参见脚本源代码和onnx2c开发文档。
关于onnx2c开发的提示,包括测试,在单独的文件中有描述。
或者说,如何从不完整的数据中进行推断。
在撰写本文时,只有一个ONNX神经网络使用onnx2c进行了基准测试 - TensorFlow Lite micro的"Hello World"正弦生成示例,并使用keras2onnx编译为ONNX。
该ONNX文件使用STM32CubeAI和onnx2c编译到运行STM32Cube HAL的STM32F411上,时钟速度为84或96MHz。在相同的项目和优化设置(gcc -O4)下,通过切换GPIO引脚测量推理时间,STMCubeAI生成的版本运行时间为490us,而onnx2c版本仅需20us。
请参阅下面的注释,了解RAM优化版本的描述。
内存消耗大致相似:
| 平台 | text | data | bss | 运行时间 |
|---|---|---|---|---|
| STM HAL + onnx2c @96MHz | 8276 | 1300 | 3060 | 20us |
| STM HAL + CubeAI @96MHz | 14372 | 1696 | 2808 | 490us |
| OpenCM3 + onnx2c @84MHz | 8236 | 1296 | 388 | 25us |
| --"-- (onnx2c RAM优化) | 8236 | 12 | 388 | 29us |
同一神经网络模型在Shawn Hymel的YouTube视频中进行了测量, 分别通过TFL和STM32CubeAI运行。使用的设备是80MHz的STM32L4。 在那里,TFL版本耗时104us,而STM32CubeAI版本耗时74us。
Hymel使用的STM32L4是STM32F4的低功耗版本,因此L4肯定不应该比F4快。使用了相同版本的CubeAI。 唯一的区别是Hymel将TFL模型输入给CubeAI,而不是上面测量中使用的ONNX模型。 我不确定这是否相关,但到目前为止,这是我能想到的唯一可能解释差异的原因。 此外,测量的ONNX模型不是从Hymel使用的TFL模型转换而来,而是使用教程重新训练的。但这很可能不是导致执行速度差异的原因。
确实需要更多的数据点...
上述数值是使用onnx2c的旧版本得出的。后续版本 添加了一个"将常量张量标记为'const'"的优化,这显著 减少了RAM使用,但有轻微的性能损失(在上述情况下为4us)。
这是因为当标记为const时,GCC生成从闪存读取'const'向量的代码 (而不是将它们复制到RAM)。当然,读取闪存 比读取RAM慢。
应该将禁用此优化作为onnx2c的命令行选项添加。


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。