BitNetMCU 是一个专注于低比特量化神经网络训练和推理的开源项目,旨在为 CH32V003 等低端微控制器提供高效的神经网络解决方案。通过量化感知训练(QAT)和精心调优的模型结构与推理代码,该项目在 16x16 MNIST 数据集上实现了超过 99% 的测试精度,同时仅使用 2KB RAM 和 16KB Flash,无需任何乘法指令。这一成果充分展示了在资源受限的微控制器上部署高精度神经网络的可能性。
BitNetMCU 项目的核心目标是探索在低端微控制器上实现高性能神经网络的可行性。项目采用 PyTorch 构建训练流程,确保了良好的可移植性;同时,推理引擎使用 ANSI C 实现,可轻松移植到各种微控制器平台。
BitNetMCU 项目采用模块化设计,主要包含以下组件:
BitNetMCU/
│
├── docs/ # 项目文档
├── mcu/ # CH32V003 微控制器相关代码
├── modeldata/ # 预训练模型存储
│
├── BitNetMCU.py # PyTorch 模型和 QAT 类定义
├── BitNetMCU_inference.c # C 语言推理代码
├── BitNetMCU_inference.h # C 语言推理代码头文件
├── BitNetMCU_MNIST_test.c # MNIST 数据集测试脚本
├── BitNetMCU_MNIST_test_data.h# MNIST 测试数据头文件(生成)
├── BitNetMCU_model.h # C 语言模型数据头文件(生成)
├── exportquant.py # 模型量化导出脚本
├── test_inference.py # C 语言推理实现测试脚本
├── training.py # 神经网络训练脚本
└── trainingparameters.yaml # 训练参数配置文件
这种结构设计使得项目的各个组件职责清晰,便于开发者理解和扩展。
BitNetMCU 项目的训练流程设计灵活,可以满足不同的实验需求:
trainingparameters.yaml 文件设置训练超参数。training.py 脚本训练模型,生成的权重以 .pth 格式保存在 modeldata/ 目录下。exportquant.py 脚本将模型转换为量化格式,并导出为 C 语言头文件 BitNetMCU_model.h。BitNetMCU_MNIST_test.c 进行推理测试。test-inference.py 脚本对比 C 语言和 Python 模型在完整 MNIST 测试集上的性能。mcu/readme.md 中的说明在实际硬件上进行测试。这一流程设计既方便了模型的快速迭代和优化,又确保了最终部署到微控制器上的模型性能。
多种量化方案:
OCTAV 最优裁剪算法: 用于计算最优裁剪和量化参数,提高量化模型的精度。
灵活的权重缩放: 支持 PerTensor 和 PerOutput 两种权重缩放方式,适应不同的硬件特性。
数据增强: 支持旋转和仿射变换等数据增强技术,提高模型泛化能力。
动态学习率调整: 实现了 StepLR 和 CosineAnnealingLR 两种学习率调度策略。
BitNetMCU 项目持续更新,不断引入新的特性和优化:
quantscale 超参数,优化权重缩放。BitNetMCU 项目为低端微控制器上的神经网络应用开辟了新的可能性。以下是一些潜在的应用场景:
BitNetMCU 是一个开源项目,欢迎开发者参与贡献。项目在 GitHub 上获得了 221 颗星和 20 次分叉,反映了社区对该项目的兴趣。开发者可以通过以下方式参与:
BitNetMCU 项目虽然已经取得了显著成果,但仍有很大的发展空间:
BitNetMCU 项目展示了在资源受限环境下实现高性能神经网络的可能性,为嵌入式 AI 和边缘计算领域提供了宝贵的参考。随着项目的不断发展和社区的积极参与,我们有理由期待 BitNetMCU 在推动低端设备 AI 应用方面发挥更大的作用。
BitNetMCU 项目通过创新的量化技术和优化策略,成功地在低端微控制器上实现了高精度的神经网络推理。这一成果不仅展示了嵌入式 AI 的巨大潜力,也为解决资源受限设备上的复杂问题提供了新的思路。随着物联网和边缘计算的快速发展,像 BitNetMCU 这样的项目将在推动技术创新和应用落地方面发挥越来越重要的作用。我们期待看到更多开发者和研究者加入到这一激动人心的领域,共同探索人工智能在微控制器世界中的无限可能。