tiny-tensorrt 是一个简单易用的 NVIDIA TensorRT 封装工具,专为 ONNX 模型设计,并提供 C++ 和 Python 两种 API 接口。用户可以通过极少的代码行数,快速地将模型部署到生产环境中。
tiny-tensorrt 是在更好的引擎构建替代方案出现之前的一个有益尝试。不过,随着 TensorRT 的 Python API 和 trtexec/polygraphy 工具的推广,tiny-tensorrt 项目已不再维护。因此,使用者可以选择这些新工具快速构建引擎。
使用 tiny-tensorrt,用户可以轻松进行以下操作:
下面是一个典型的 C++ 使用示例代码:
Trt* net = new Trt(); net->SetFP16(); net->BuildEngine(onnxModel, engineFile); net->CopyFromHostToDevice(input, inputBindIndex); net->Forward(); net->CopyFromDeviceToHost(output, outputBindIndex);
为了使用 tiny-tensorrt,用户需预先安装以下库:
支持的 CUDA 版本包括:10.2, 11.0, 11.1, 11.2, 11.3 和 11.4。支持的 TensorRT 版本包括:7.0, 7.1, 7.2, 8.0, 8.2 和 8.4。
安装步骤如下:
更新软件包并安装构建工具:
sudo apt-get update -y sudo apt-get install cmake zlib1g-dev
如果需要 Python 绑定,安装 Python 依赖:
sudo apt-get install python3 python3-pip pip3 install numpy
克隆项目仓库:
git clone --recurse-submodules -j8 https://github.com/zerollzeng/tiny-tensorrt.git
构建项目:
cd tiny-tensorrt mkdir build && cd build cmake .. && make
用户构建完成后,可以将库文件 libtinytrt.so
和头文件 Trt.h
集成到自己的项目中,并可使用 Python 模块 pytrt.so
。
关于 tiny-tensorrt 的更多信息,请参考项目的 Wiki 页面。同时,需要注意的是,任何第三方模块和 TensorRT 的使用需遵循其各自的许可证协议。至于项目中由作者编写的部分,用户可以随意使用。
AI辅助编程,代码自动修 复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。