BEVFormer_tensorrt

BEVFormer_tensorrt

BEVFormer和BEVDet的TensorRT高效部署方案

本项目实现BEVFormer和BEVDet在TensorRT上的高效部署,支持FP32/FP16/INT8推理。通过优化TensorRT算子,BEVFormer base模型推理速度提升4倍,模型大小减少90%,GPU内存节省80%。同时支持MMDetection中2D目标检测模型的INT8量化部署。项目提供详细基准测试,展示不同配置下的精度和速度表现。

BEV 3D DetectionTensorRT推理加速量化GPU内存优化Github开源项目

在TensorRT上部署BEV 3D检测

本仓库是BEV 3D检测(包括BEVFormerBEVDet)在TensorRT上的部署项目,支持FP32/FP16/INT8推理。同时,为了提高BEVFormer在TensorRT上的推理速度,本项目实现了一些支持nv_halfnv_half2INT8的TensorRT算子。在几乎不影响精度的情况下,BEVFormer base的推理速度可以提高四倍以上,引擎大小可以减少90%以上,GPU内存使用可以节省80%以上。此外,该项目还支持MMDetection中常见的2D目标检测模型,只需少量代码更改即可支持INT8量化TensorRT部署

基准测试

BEVFormer

BEVFormer PyTorch

模型数据集批次大小NDS/mAPFPS大小 (MB)内存 (MB)设备
BEVFormer tiny<br />下载NuScenes1NDS: 0.354<br/>mAP: 0.25215.93832167RTX 3090
BEVFormer small<br />下载NuScenes1NDS: 0.478<br/>mAP: 0.3705.16803147RTX 3090
BEVFormer base<br />下载NuScenes1NDS: 0.517<br/>mAP: 0.4162.42655435RTX 3090

带MMDeploy插件的BEVFormer TensorRT(仅支持FP32)

模型数据集批量大小浮点/整型量化方法NDS/mAPFPS大小 (MB)内存 (MB)设备
BEVFormer tinyNuScenes1FP32-NDS: 0.354<br/>mAP: 0.25237.9 (x1)136 (x1)2159 (x1)RTX 3090
BEVFormer tinyNuScenes1FP16-NDS: 0.354<br/>mAP: 0.25269.2 (x1.83)74 (x0.54)1729 (x0.80)RTX 3090
BEVFormer tinyNuScenes1FP32/INT8PTQ熵<br />每张量NDS: 0.353<br/>mAP: 0.24965.1 (x1.72)58 (x0.43)1737 (x0.80)RTX 3090
BEVFormer tinyNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.353<br/>mAP: 0.24970.7 (x1.87)54 (x0.40)1665 (x0.77)RTX 3090
BEVFormer smallNuScenes1FP32-NDS: 0.478<br/>mAP: 0.3706.6 (x1)245 (x1)4663 (x1)RTX 3090
BEVFormer smallNuScenes1FP16-NDS: 0.478<br/>mAP: 0.37012.8 (x1.94)126 (x0.51)3719 (x0.80)RTX 3090
BEVFormer smallNuScenes1FP32/INT8PTQ熵<br />每张量NDS: 0.476<br/>mAP: 0.3678.7 (x1.32)158 (x0.64)4079 (x0.87)RTX 3090
BEVFormer smallNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.477<br/>mAP: 0.36813.3 (x2.02)106 (x0.43)3441 (x0.74)RTX 3090
BEVFormer base *NuScenes1FP32-NDS: 0.517<br/>mAP: 0.4161.5 (x1)1689 (x1)13893 (x1)RTX 3090
BEVFormer baseNuScenes1FP16-NDS: 0.517<br/>mAP: 0.4161.8 (x1.20)849 (x0.50)11865 (x0.85)RTX 3090
BEVFormer base *NuScenes1FP32/INT8PTQ熵<br />每张量NDS: 0.516<br/>mAP: 0.4141.8 (x1.20)426 (x0.25)12429 (x0.89)RTX 3090
BEVFormer base *NuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.515<br/>mAP: 0.4142.2 (x1.47)244 (x0.14)11011 (x0.79)RTX 3090

* 使用TensorRT-8.5.1.7时onnx2trt出现"内存不足"错误,但使用TensorRT-8.4.3.1可以成功转换。因此,这些引擎的版本是TensorRT-8.4.3.1。

BEVFormer TensorRT与自定义插件(支持nv_half、nv_half2和int8)

使用nv_half的FP16插件

模型数据集批次大小浮点/整数量化方法NDS/mAPFPS/提升大小 (MB)内存 (MB)设备
BEVFormer tinyNuScenes1FP32-NDS: 0.354<br/>mAP: 0.25240.0 (x1.06)135 (x0.99)1693 (x0.78)RTX 3090
BEVFormer tinyNuScenes1FP16-NDS: 0.355<br/>mAP: 0.25281.2 (x2.14)70 (x0.51)1203 (x0.56)RTX 3090
BEVFormer tinyNuScenes1FP32/INT8PTQ熵<br />每张量NDS: 0.351<br/>mAP: 0.24990.1 (x2.38)58 (x0.43)1105 (x0.51)RTX 3090
BEVFormer tinyNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.351<br/>mAP: 0.249107.4 (x2.83)52 (x0.38)1095 (x0.51)RTX 3090
BEVFormer smallNuScenes1FP32-NDS: 0.478<br/>mAP: 0.377.4 (x1.12)250 (x1.02)2585 (x0.55)RTX 3090
BEVFormer smallNuScenes1FP16-NDS: 0.479<br/>mAP: 0.3715.8 (x2.40)127 (x0.52)1729 (x0.37)RTX 3090
BEVFormer smallNuScenes1FP32/INT8PTQ熵<br />每张量NDS: 0.477<br/>mAP: 0.36717.9 (x2.71)166 (x0.68)1637 (x0.35)RTX 3090
BEVFormer smallNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.476<br/>mAP: 0.36620.4 (x3.10)108 (x0.44)1467 (x0.31)RTX 3090
BEVFormer baseNuScenes1FP32-NDS: 0.517<br/>mAP: 0.4163.0 (x2.00)292 (x0.17)5715 (x0.41)RTX 3090
BEVFormer baseNuScenes1FP16-NDS: 0.517<br/>mAP: 0.4164.9 (x3.27)148 (x0.09)3417 (x0.25)RTX 3090
BEVFormer baseNuScenes1FP32/INT8PTQ熵<br />每张量NDS: 0.515<br/>mAP: 0.4146.9 (x4.60)202 (x0.12)3307 (x0.24)RTX 3090
BEVFormer baseNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.514<br/>mAP: 0.4138.0 (x5.33)131 (x0.08)2429 (x0.17)RTX 3090

使用nv_half2的FP16插件

模型数据集批次大小浮点/整型量化方法NDS/mAPFPS大小 (MB)内存 (MB)设备
BEVFormer tinyNuScenes1FP16-NDS: 0.355<br/>mAP: 0.25184.2 (x2.22)72 (x0.53)1205 (x0.56)RTX 3090
BEVFormer tinyNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.354<br/>mAP: 0.250108.3 (x2.86)52 (x0.38)1093 (x0.51)RTX 3090
BEVFormer smallNuScenes1FP16-NDS: 0.479<br/>mAP: 0.37118.6 (x2.82)124 (x0.51)1725 (x0.37)RTX 3090
BEVFormer smallNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.477<br/>mAP: 0.36822.9 (x3.47)110 (x0.45)1487 (x0.32)RTX 3090
BEVFormer baseNuScenes1FP16-NDS: 0.517<br/>mAP: 0.4166.6 (x4.40)146 (x0.09)3415 (x0.25)RTX 3090
BEVFormer baseNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.516<br/>mAP: 0.4158.6 (x5.73)159 (x0.09)2479 (x0.18)RTX 3090

BEVDet

BEVDet PyTorch

模型数据集批次大小NDS/mAPFPS大小 (MB)内存 (MB)设备
BEVDet R50 CBGSNuScenes1NDS: 0.38<br/>mAP: 0.29829.01701858RTX 2080Ti

BEVDet TensorRT

使用自定义插件 bev_pool_v2(支持 nv_half、nv_half2 和 int8),修改自官方 BEVDet

模型数据集批次大小浮点/整型量化方法NDS/mAPFPS大小 (MB)内存 (MB)设备
BEVDet R50 CBGSNuScenes1FP32-NDS: 0.38<br/>mAP: 0.29844.62451032RTX 2080Ti
BEVDet R50 CBGSNuScenes1FP16-NDS: 0.38<br/>mAP: 0.298135.186790RTX 2080Ti
BEVDet R50 CBGSNuScenes1FP32/INT8PTQ熵<br />每张量NDS: 0.355<br/>mAP: 0.274234.744706RTX 2080Ti
BEVDet R50 CBGSNuScenes1FP16/INT8PTQ熵<br />每张量NDS: 0.357<br/>mAP: 0.277236.444706RTX 2080Ti

2D 检测模型

本项目还支持 MMDetection 中的常见 2D 目标检测模型,只需进行少量修改。以下是 YOLOx 和 CenterNet 的部署示例。

YOLOx

模型数据集框架批次大小浮点/整数量化方法mAPFPS大小 (MB)内存 (MB)设备
YOLOx<br />下载COCOPyTorch32FP32-mAP: 0.50663.13797617RTX 3090
YOLOxCOCOTensorRT32FP32-mAP: 0.50671.3 (x1)546 (x1)9943 (x1)RTX 3090
YOLOxCOCOTensorRT32FP16-mAP: 0.506296.8 (x4.16)192 (x0.35)4567 (x0.46)RTX 3090
YOLOxCOCOTensorRT32FP32/INT8PTQ熵<br />每张量量化mAP: 0.488556.4 (x7.80)99 (x0.18)5225 (x0.53)RTX 3090
YOLOxCOCOTensorRT32FP16/INT8PTQ熵<br />每张量量化mAP: 0.479550.6 (x7.72)99 (x0.18)5119 (x0.51)RTX 3090

CenterNet

模型数据集框架批次大小浮点/整数量化方法mAPFPS大小 (MB)内存 (MB)设备
CenterNet<br />下载COCOPyTorch32FP32-mAP: 0.299337.4565171RTX 3090
CenterNetCOCOTensorRT32FP32-mAP: 0.299475.6 (x1)58 (x1)8241 (x1)RTX 3090
CenterNetCOCOTensorRT32FP16-mAP: 0.2971247.1 (x2.62)29 (x0.50)5183 (x0.63)RTX 3090
CenterNetCOCOTensorRT32FP32/INT8PTQ熵<br />每张量量化mAP: 0.271534.0 (x3.22)20 (x0.34)6549 (x0.79)RTX 3090
CenterNetCOCOTensorRT32FP16/INT8PTQ熵<br />每张量量化mAP: 0.2851889.0 (x3.97)17 (x0.29)6453 (x0.78)RTX 3090

克隆

git clone git@github.com:DerryHub/BEVFormer_tensorrt.git cd BEVFormer_tensorrt PROJECT_DIR=$(pwd)

数据准备

MS COCO (用于2D检测)

下载 COCO 2017 数据集到 /path/to/coco 并解压。

cd ${PROJECT_DIR}/data ln -s /path/to/coco coco

NuScenes 和 CAN bus (用于 BEVFormer)

这里下载 nuScenes V1.0 完整数据集和 CAN bus 扩展数据到 /path/to/nuscenes/path/to/can_bus

按照 BEVFormer 的方式准备 nuscenes 数据。

cd ${PROJECT_DIR}/data ln -s /path/to/nuscenes nuscenes ln -s /path/to/can_bus can_bus cd ${PROJECT_DIR} sh samples/bevformer/create_data.sh

目录结构

${PROJECT_DIR}/data/. ├── can_bus │ ├── scene-0001_meta.json │ ├── scene-0001_ms_imu.json │ ├── scene-0001_pose.json │ └── ... ├── coco │ ├── annotations │ ├── test2017 │ ├── train2017 │ └── val2017 └── nuscenes ├── maps ├── samples ├── sweeps └── v1.0-trainval

安装

使用 Docker

cd ${PROJECT_DIR} docker build -t trt85 -f docker/Dockerfile . docker run -it --gpus all -v ${PROJECT_DIR}:/workspace/BEVFormer_tensorrt/ \ -v /path/to/can_bus:/workspace/BEVFormer_tensorrt/data/can_bus \ -v /path/to/coco:/workspace/BEVFormer_tensorrt/data/coco \ -v /path/to/nuscenes:/workspace/BEVFormer_tensorrt/data/nuscenes \ --shm-size 8G trt85 /bin/bash # 在容器内 cd /workspace/BEVFormer_tensorrt/TensorRT/build cmake .. -DCMAKE_TENSORRT_PATH=/usr make -j$(nproc) make install cd /workspace/BEVFormer_tensorrt/third_party/bev_mmdet3d python setup.py build develop --user

注意: 您可以在这里下载 Docker 镜像

从源码安装

CUDA/cuDNN/TensorRT

按照 NVIDIA 的指引下载并安装 CUDA-11.6/cuDNN-8.6.0/TensorRT-8.5.1.7

PyTorch

按照官方指南安装 PyTorch 和 TorchVision。

pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 torchaudio==0.12.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116

MMCV-full

git clone https://github.com/open-mmlab/mmcv.git cd mmcv git checkout v1.5.0 pip install -r requirements/optional.txt MMCV_WITH_OPS=1 pip install -e .

MMDetection

git clone https://github.com/open-mmlab/mmdetection.git cd mmdetection git checkout v2.25.1 pip install -v -e . # "-v" 表示详细输出 # "-e" 表示以可编辑模式安装项目, # 这样对代码的任何本地修改都会立即生效,无需重新安装。

MMDeploy

git clone git@github.com:open-mmlab/mmdeploy.git cd mmdeploy git checkout v0.10.0 git clone git@github.com:NVIDIA/cub.git third_party/cub cd third_party/cub git checkout c3cceac115 # 回到 third_party 目录并克隆 pybind11 cd .. git clone git@github.com:pybind/pybind11.git pybind11 cd pybind11 git checkout 70a58c5
构建 MMDeploy 的 TensorRT 插件

确保 cmake 版本 >= 3.14.0,gcc 版本 >= 7。

export MMDEPLOY_DIR=/MMDeploy的根目录路径 export TENSORRT_DIR=/tensorrt的路径 export CUDNN_DIR=/cuda的路径 export LD_LIBRARY_PATH=$TENSORRT_DIR/lib:$LD_LIBRARY_PATH export LD_LIBRARY_PATH=$CUDNN_DIR/lib64:$LD_LIBRARY_PATH cd ${MMDEPLOY_DIR} mkdir -p build cd build cmake -DCMAKE_CXX_COMPILER=g++-7 -DMMDEPLOY_TARGET_BACKENDS=trt -DTENSORRT_DIR=${TENSORRT_DIR} -DCUDNN_DIR=${CUDNN_DIR} .. make -j$(nproc) make install
安装 MMDeploy
cd ${MMDEPLOY_DIR} pip install -v -e . # "-v" 表示详细输出 # "-e" 表示以可编辑模式安装项目, # 这样对代码的任何本地修改都会立即生效,无需重新安装。

安装本项目

cd ${PROJECT_DIR} pip install -r requirements.txt
构建并安装自定义 TensorRT 插件

注意:CUDA>=11.4,SM 版本>=7.5

cd ${PROJECT_DIR}/TensorRT/build cmake .. -DCMAKE_TENSORRT_PATH=/TensorRT的路径 make -j$(nproc) make install

运行自定义 TensorRT 插件的单元测试

cd ${PROJECT_DIR} sh samples/test_trt_ops.sh
构建并安装 MMDetection3D 中的部分操作
cd ${PROJECT_DIR}/third_party/bev_mmdet3d python setup.py build develop

准备检查点

将上述 PyTorch 检查点下载到 ${PROJECT_DIR}/checkpoints/pytorch/。ONNX 文件和 TensorRT 引擎将保存在 ${PROJECT_DIR}/checkpoints/onnx/${PROJECT_DIR}/checkpoints/tensorrt/

自定义 TensorRT 插件

支持 BEVFormer 中的常见 TensorRT 操作:

  • 网格采样器
  • 多尺度可变形注意力
  • 调制可变形卷积2d
  • 旋转
  • 逆矩阵
  • BEV Pool V2
  • Flash 多头注意力

每个操作都实现了 2 个版本:FP32/FP16 (nv_half)/INT8FP32/FP16 (nv_half2)/INT8

具体的速度比较,请参见 自定义 TensorRT 插件

运行

以下教程以 BEVFormer base 为例。

  • 使用 PyTorch 评估
cd ${PROJECT_DIR} # 默认 gpu_id 为 0 sh samples/bevformer/base/pth_evaluate.sh -d ${gpu_id}
  • 使用 TensorRT 和 MMDeploy 插件评估
# 将.pth转换为.onnx sh samples/bevformer/base/pth2onnx.sh -d ${gpu_id} # 将.onnx转换为TensorRT引擎(FP32) sh samples/bevformer/base/onnx2trt.sh -d ${gpu_id} # 将.onnx转换为TensorRT引擎(FP16) sh samples/bevformer/base/onnx2trt_fp16.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP32) sh samples/bevformer/base/trt_evaluate.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP16) sh samples/bevformer/base/trt_evaluate_fp16.sh -d ${gpu_id} # 量化 # 校准并将.onnx转换为TensorRT引擎(FP32/INT8) sh samples/bevformer/base/onnx2trt_int8.sh -d ${gpu_id} # 校准并将.onnx转换为TensorRT引擎(FP16/INT8) sh samples/bevformer/base/onnx2trt_int8_fp16.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP32/INT8) sh samples/bevformer/base/trt_evaluate_int8.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP16/INT8) sh samples/bevformer/base/trt_evaluate_int8_fp16.sh -d ${gpu_id} # 量化感知训练 # 默认gpu_ids为0,1,2,3,4,5,6,7 sh samples/bevformer/base/quant_aware_train.sh -d ${gpu_ids} # 然后按照训练后量化流程进行
  • 使用TensorRT和自定义插件进行评估
# nv_half # 将.pth转换为.onnx sh samples/bevformer/plugin/base/pth2onnx.sh -d ${gpu_id} # 将.onnx转换为TensorRT引擎(FP32) sh samples/bevformer/plugin/base/onnx2trt.sh -d ${gpu_id} # 将.onnx转换为TensorRT引擎(FP16-nv_half) sh samples/bevformer/plugin/base/onnx2trt_fp16.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP32) sh samples/bevformer/plugin/base/trt_evaluate.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP16-nv_half) sh samples/bevformer/plugin/base/trt_evaluate_fp16.sh -d ${gpu_id} # nv_half2 # 将.pth转换为.onnx sh samples/bevformer/plugin/base/pth2onnx_2.sh -d ${gpu_id} # 将.onnx转换为TensorRT引擎(FP16-nv_half2) sh samples/bevformer/plugin/base/onnx2trt_fp16_2.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP16-nv_half2) sh samples/bevformer/plugin/base/trt_evaluate_fp16_2.sh -d ${gpu_id} # 量化 # nv_half # 校准并将.onnx转换为TensorRT引擎(FP32/INT8) sh samples/bevformer/plugin/base/onnx2trt_int8.sh -d ${gpu_id} # 校准并将.onnx转换为TensorRT引擎(FP16-nv_half/INT8) sh samples/bevformer/plugin/base/onnx2trt_int8_fp16.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP32/INT8) sh samples/bevformer/plugin/base/trt_evaluate_int8.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP16-nv_half/INT8) sh samples/bevformer/plugin/base/trt_evaluate_int8_fp16.sh -d ${gpu_id} # nv_half2 # 校准并将.onnx转换为TensorRT引擎(FP16-nv_half2/INT8) sh samples/bevformer/plugin/base/onnx2trt_int8_fp16_2.sh -d ${gpu_id} # 使用TensorRT引擎进行评估(FP16-nv_half2/INT8) sh samples/bevformer/plugin/base/trt_evaluate_int8_fp16_2.sh -d ${gpu_id}

致谢

本项目主要基于以下优秀的开源项目:

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多