ESANet

ESANet

高效RGB-D语义分割网络用于室内场景分析

ESANet是一个高效的RGB-D语义分割网络,专为室内场景分析设计。该网络在NVIDIA Jetson AGX Xavier上实现实时语义分割,适用于移动机器人的实时场景分析系统。项目提供训练和评估代码,支持模型转换至ONNX和TensorRT,并可测量推理时间。ESANet在NYUv2、SUNRGB-D和Cityscapes等数据集上展现出优异性能。

ESANet语义分割RGB-D室内场景分析实时处理Github开源项目

ESANet:用于室内场景分析的高效RGB-D语义分割

PWC PWC PWC

您可能还想看看我们的后续工作EMSANet(多任务方法、更好的语义分割结果,以及更清晰、更易扩展的代码库)

本仓库包含了我们论文"用于室内场景分析的高效RGB-D语义分割"的代码(IEEE XplorearXiv)。

我们精心设计的网络架构能够在NVIDIA Jetson AGX Xavier上实现实时语义分割,因此非常适合作为移动机器人复杂系统中实时场景分析的通用初始处理步骤:

<div align="center"> <a href="https://youtu.be/-Sopja6UEJg"><img src="https://yellow-cdn.veclightyear.com/0a4dffa0/185e83cb-6ee6-4cc8-a414-f8dd440474c4.jpg" style="width:100%;"></a> <br>(点击图片打开YouTube视频) <br><br> </div>

我们的方法也可以应用于户外场景,如Cityscapes数据集:

<div align="center"> <a href="https://youtu.be/XbFTGwFyl4Y"><img src="https://yellow-cdn.veclightyear.com/0a4dffa0/68908627-636e-42db-93e4-37bf11e6f310.jpg" style="width:100%;"></a> <br>(点击图片打开YouTube视频) <br><br> </div>

本仓库包含了训练和评估我们网络的代码。此外,我们还提供了将模型转换为ONNX和TensorRT的代码,以及测量推理时间的代码。

许可和引用

源代码以BSD 3-Clause许可发布,详见许可文件

如果您使用源代码或网络权重,请引用以下论文:

Seichter, D., Köhler, M., Lewandowski, B., Wengefeld T., Gross, H.-M. Efficient RGB-D Semantic Segmentation for Indoor Scene Analysis in IEEE International Conference on Robotics and Automation (ICRA), pp. 13525-13531, 2021.

@inproceedings{esanet2021icra, title={Efficient RGB-D Semantic Segmentation for Indoor Scene Analysis}, author={Seichter, Daniel and K{\"o}hler, Mona and Lewandowski, Benjamin and Wengefeld, Tim and Gross, Horst-Michael}, booktitle={IEEE International Conference on Robotics and Automation (ICRA)}, year={2021}, volume={}, number={}, pages={13525-13531} } @article{esanet2020arXiv, title={Efficient RGB-D Semantic Segmentation for Indoor Scene Analysis}, author={Seichter, Daniel and K{\"o}hler, Mona and Lewandowski, Benjamin and Wengefeld, Tim and Gross, Horst-Michael}, journal={arXiv preprint arXiv:2011.06961}, year={2020} }

请注意,预印本已被接受在IEEE机器人与自动化国际会议(ICRA)上发表。

设置

  1. 克隆仓库:

    git clone https://github.com/TUI-NICR/ESANet.git cd /path/to/this/repository
  2. 设置包含所有依赖项的 Anaconda 环境:

    # 从 YAML 文件创建 conda 环境 conda env create -f rgbd_segmentation.yaml # 激活环境 conda activate rgbd_segmentation
  3. 数据准备(训练/评估/数据集推理):
    我们在 NYUv2SUNRGB-DCityscapes 上训练了我们的网络。 编码器在 ImageNet 上进行了预训练。 此外,我们还在合成数据集 SceneNet RGB-D 上预训练了我们的最佳模型。

    src/datasets 文件夹包含了准备 NYUv2、SunRGB-D、Cityscapes、SceneNet RGB-D 用于训练和评估的代码。 请按照各数据集的说明进行操作,并将创建的数据集存储在 ./datasets 中。 对于 ImageNet,我们使用了 TensorFlowDatasets(参见 imagenet_pretraining.py)。

  4. 预训练模型(评估):
    我们提供了在 NYUv2、SunRGBD 和 Cityscapes 上选定的 ESANet-R34-NBt1D(使用 ResNet34 NBt1D 主干网络)的权重:

    数据集模型mIoUFPS*链接
    NYUv2(测试)ESANet-R34-NBt1D50.3029.7下载
    ESANet-R34-NBt1D(预训练 SceneNet)51.5829.7下载
    SUNRGB-D(测试)ESANet-R34-NBt1D48.1729.7**下载
    ESANet-R34-NBt1D(预训练 SceneNet)48.0429.7**下载
    Cityscapes(验证半分辨率)ESANet-R34-NBt1D75.2223.4下载
    Cityscapes(验证全分辨率)ESANet-R34-NBt1D80.096.2下载

    下载并解压模型到 ./trained_models

    *我们报告的 FPS 是在 NVIDIA Jetson AGX Xavier(Jetpack 4.4、TensorRT 7.1、Float16)上的结果。
    **注意,我们在论文中只报告了 NYUv2 的推理时间,因为它比 SUNRGB-D 的类别更多。 因此,SUNRGB-D 的 FPS 可能略高(37 vs. 40 类)。

内容

以下是不同任务的子部分:

  • 评估:重现我们论文中报告的结果。
  • 数据集推理:将训练好的模型应用于数据集样本。
  • 样本推理:将训练好的模型应用于 ./samples 中的样本。
  • 时间推理:使用 TensorRT 在 NVIDIA Jetson AGX Xavier 上进行推理时间测试。
  • 训练:训练新的 ESANet 模型。

评估

要重现我们论文中报告的 mIoU,请使用 eval.py

请注意,正确构建模型取决于模型训练所使用的相应数据集。在运行eval.py时不传递额外的模型参数,默认会在NYUv2或SUNRGB-D上评估我们的ESANet-R34-NBt1D。对于Cityscapes,参数有所不同。您会在网络权重文件旁边找到一个argsv_*.txt文件,列出了所需的参数。

示例:

  • 要评估在NYUv2上训练的ESANet-R34-NBt1D,运行:

    python eval.py \ --dataset nyuv2 \ --dataset_dir ./datasets/nyuv2 \ --ckpt_path ./trained_models/nyuv2/r34_NBt1D.pth # 相机:kv1 mIoU:50.30 # 所有相机,mIoU:50.30
  • 要评估在SUNRGB-D上训练的ESANet-R34-NBt1D,运行:

    python eval.py \ --dataset sunrgbd \ --dataset_dir ./datasets/sunrgbd \ --ckpt_path ./trained_models/sunrgbd/r34_NBt1D.pth # 相机:realsense mIoU:32.42 # 相机:kv2 mIoU:46.28 # 相机:kv1 mIoU:53.39 # 相机:xtion mIoU:41.93 # 所有相机,mIoU:48.17
  • 要评估在Cityscapes上训练的ESANet-R34-NBt1D,运行:

    # 半分辨率(1024x512) python eval.py \ --dataset cityscapes-with-depth \ --dataset_dir ./datasets/cityscapes \ --ckpt_path ./trained_models/cityscapes/r34_NBt1D_half.pth \ --height 512 \ --width 1024 \ --raw_depth \ --context_module appm-1-2-4-8 # 相机:camera1 mIoU:75.22 # 所有相机,mIoU:75.22 # 全分辨率(2048x1024) # 注意,模型是在半分辨率下创建和训练的,只有评估是在全分辨率下进行的 python eval.py \ --dataset cityscapes-with-depth \ --dataset_dir ./datasets/cityscapes \ --ckpt_path ./trained_models/cityscapes/r34_NBt1D_full.pth \ --height 512 \ --width 1024 \ --raw_depth \ --context_module appm-1-2-4-8 \ --valid_full_res # 相机:camera1 mIoU:80.09 # 所有相机,mIoU:80.09

推理

我们提供了对样本输入图像(inference_samples.py)和从我们使用的数据集中抽取的样本(inference_dataset.py)进行推理的脚本。

请注意,正确构建模型取决于模型训练所使用的相应数据集。在运行eval.py时不传递额外的模型参数,默认会在NYUv2或SUNRGB-D上评估我们的ESANet-R34-NBt1D。对于Cityscapes,参数有所不同。您会在网络权重文件旁边找到一个argsv_*.txt文件,列出了Cityscapes所需的参数。

数据集推理

使用inference_dataset.py将训练好的模型应用于从我们使用的数据集中抽取的样本:

示例:要将在SUNRGB-D上训练的ESANet-R34-NBt1D应用于SUNRGB-D的样本,运行:

# 注意,整个第一批次都会被可视化,所以较大的批次大小会导致图中的图像较小 python inference_dataset.py \ --dataset sunrgbd \ --dataset_dir ./datasets/sunrgbd \ --ckpt_path ./trained_models/sunrgbd/r34_NBt1D_scenenet.pth \ --batch_size 4

样本推理

使用inference_samples.py将训练好的模型应用于./samples中给出的样本。

注意,需要数据集参数来确定正确的预处理和类别颜色。但是,您不需要准备相应的数据集。此外,根据给定的深度图像和用于训练的数据集,可能需要额外的深度缩放。 示例:

  • 要将我们在SUNRGB-D上训练的ESANet-R34-NBt1D应用于样本,请运行:

    python inference_samples.py \ --dataset sunrgbd \ --ckpt_path ./trained_models/sunrgbd/r34_NBt1D.pth \ --depth_scale 1 \ --raw_depth

    图片

  • 要将我们在NYUv2上训练的ESANet-R34-NBt1D应用于样本,请运行:

    python inference_samples.py \ --dataset nyuv2 \ --ckpt_path ./trained_models/nyuv2/r34_NBt1D.pth \ --depth_scale 0.1 \ --raw_depth

    图片

推理时间

我们在配备Jetpack 4.4的NVIDIA Jetson AGX Xavier上计时推理(TensorRT 7.1.3, PyTorch 1.4.0)。

在配备Jetpack 4.4的NVIDIA Jetson AGX Xavier上复现计时还需要:

随后,您可以运行inference_time.sh来复现ESANet的报告时间。

可以使用inference_time_whole_model.py计算单个模型的推理时间。

示例:要复现我们在NYUv2上训练的ESANet-R34-NBt1D的计时,请运行:

python3 inference_time_whole_model.py \ --dataset nyuv2 \ --no_time_pytorch \ --no_time_onnxruntime \ --trt_floatx 16

注意,早于4.4版本的Jetpack可能完全失败或由于上采样处理不同而导致输出结果偏差。

要复现我们论文中比较的其他模型的计时,请按照src/models/external_code中给出的说明进行操作。

训练

使用train.py在NYUv2、SUNRGB-D、Cityscapes或SceneNet RGB-D上训练ESANet(或按照提供的数据集实现来实现您自己的数据集)。 参数默认为使用我们论文中的超参数在NYUv2上训练ESANet-R34-NBt1D。因此,这些参数可以省略,但为清晰起见在此列出。

请注意,训练ESANet-R34-NBt1D需要编码器主干ResNet-34 NBt1D的预训练权重。您可以从链接下载我们在ImageNet上的预训练权重。否则,您可以使用imagenet_pretraining.py创建自己的预训练权重。 示例:

  • 在NYUv2上训练我们的ESANet-R34-NBt1D(除数据集参数外,也适用于SUNRGB-D):

    # 可以自行指定所有参数 python train.py \ --dataset nyuv2 \ --dataset_dir ./datasets/nyuv2 \ --pretrained_dir ./trained_models/imagenet \ --results_dir ./results \ --height 480 \ --width 640 \ --batch_size 8 \ --batch_size_valid 24 \ --lr 0.01 \ --optimizer SGD \ --class_weighting median_frequency \ --encoder resnet34 \ --encoder_block NonBottleneck1D \ --nr_decoder_blocks 3 \ --modality rgbd \ --encoder_decoder_fusion add \ --context_module ppm \ --decoder_channels_mode decreasing \ --fuse_depth_in_rgb_encoder SE-add \ --upsampling learned-3x3-zeropad # 或使用默认参数 python train.py \ --dataset nyuv2 \ --dataset_dir ./datasets/nyuv2 \ --pretrained_dir ./trained_models/imagenet \ --results_dir ./results
  • 在Cityscapes上训练我们的ESANet-R34-NBt1D:

    # 注意部分参数有所不同 python train.py \ --dataset cityscapes-with-depth \ --dataset_dir ./datasets/cityscapes \ --pretrained_dir ./trained_models/imagenet \ --results_dir ./results \ --raw_depth \ --he_init \ --aug_scale_min 0.5 \ --aug_scale_max 2.0 \ --valid_full_res \ --height 512 \ --width 1024 \ --batch_size 8 \ --batch_size_valid 16 \ --lr 1e-4 \ --optimizer Adam \ --class_weighting None \ --encoder resnet34 \ --encoder_block NonBottleneck1D \ --nr_decoder_blocks 3 \ --modality rgbd \ --encoder_decoder_fusion add \ --context_module appm-1-2-4-8 \ --decoder_channels_mode decreasing \ --fuse_depth_in_rgb_encoder SE-add \ --upsampling learned-3x3-zeropad

如需更多信息,请使用 python train.py --help 或查看 src/args.py

要分析模型结构,请使用相同参数运行 model_to_onnx.py 以导出ONNX模型文件,该文件可以使用 Netron 进行可视化展示。

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI助手AI工具AI写作工具AI辅助写作蛙蛙写作学术助手办公助手营销助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

聊天机器人AI助手热门AI工具AI对话
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多