作者:Lukas Hoyer、Dengxin Dai和Luc Van Gool
:bell: 新闻:
**无监督域适应(UDA)**旨在将在合成数据上训练的模型适应到真实世界的数据,而无需对真实世界图像进行昂贵的标注。由于用于语义分割的UDA方法通常需要大量GPU 内存,大多数先前的方法仅在缩小尺寸的图像上操作。我们质疑这种设计,因为低分辨率预测常常无法保留精细细节。使用高分辨率图像的随机裁剪进行训练可以缓解这个问题,但在捕捉长距离、域鲁棒的上下文信息方面仍有不足。
因此,我们提出了HRDA,一种用于UDA的多分辨率训练方法,它结合了小型高分辨率裁剪以保留精细分割细节和大型低分辨率裁剪以捕捉长距离上下文依赖的优势,并通过学习的尺度注意力机制来实现,同时保持可控的GPU内存占用。
HRDA能够适应小物体并保留精细的分割细节。它显著提高了最先进的性能,在GTA→Cityscapes上提高了5.5 mIoU,在Synthia→Cityscapes上提高了4.9 mIoU,分别达到了73.8和65.8 mIoU的前所未有的性能。
与之前最先进的UDA方法DAFormer相比,HRDA更详细的域自适应语义分割效果也可以在Cityscapes验证集的示例预测中观察到。
https://user-images.githubusercontent.com/1277888/181128057-27b8039f-a4c9-4f6d-9aa8-9b7f364d8921.mp4
HRDA可以进一步扩展到域泛化,消除了访问目标图像的需求。在域泛化中,HRDA也显著提高了最先进的性能,提 高了4.2 mIoU。
有关HRDA的更多信息,请查看我们的[ECCV论文]和[扩展论文]。
如果您在研究中发现HRDA有用,请考虑引用:
@InProceedings{hoyer2022hrda,
title={{HRDA}: Context-Aware High-Resolution Domain-Adaptive Semantic Segmentation},
author={Hoyer, Lukas and Dai, Dengxin and Van Gool, Luc},
booktitle={Proceedings of the European Conference on Computer Vision (ECCV)},
pages={372--391},
year={2022}
}
@Article{hoyer2024domain,
title={Domain Adaptive and Generalizable Network Architectures and Training Strategies for Semantic Image Segmentation},
author={Hoyer, Lukas and Dai, Dengxin and Van Gool, Luc},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI)},
year={2024},
volume={46},
number={1},
pages={220-235},
doi={10.1109/TPAMI.2023.3320613}
}
HRDA在多个UDA基准测试上显著优于之前的工作。这包括GTA→Cityscapes和Synthia→Cityscapes的合成到真实适应,以及Cityscapes→ACDC和Cityscapes→DarkZurich的晴朗到恶劣天气适应。
GTA→CS(val) | Synthia→CS(val) | CS→ACDC(test) | CS→DarkZurich(test) | |
---|---|---|---|---|
ADVENT [1] | 45.5 | 41.2 | 32.7 | 29.7 |
BDL [2] | 48.5 | -- | 37.7 | 30.8 |
FDA [3] | 50.5 | -- | 45.7 | -- |
DACS [4] | 52.1 | 48.3 | -- | -- |
ProDA [5] | 57.5 | 55.5 | -- | -- |
MGCDA [6] | -- | -- | 48.7 | 42.5 |
DANNet [7] | -- | -- | 50.0 | 45.2 |
DAFormer (我们的) [8] | 68.3 | 60.9 | 55.4* | 53.8* |
HRDA (我们的) | 73.8 | 65.8 | 68.0* | 55.9* |
* 我们扩展论文的新结果
参考文献:
HRDA和DAFormer在从GTA到真实街景的域泛化方面显著优于之前的工作。
DG方法 | Cityscapes | BDD100K | Mapillary | 平均 |
---|---|---|---|---|
IBN-Net [1,5] | 37.37 | 34.21 | 36.81 | 36.13 |
DRPC [2] | 42.53 | 38.72 | 38.05 | 39.77 |
ISW [3,5] | 37.20 | 33.36 | 35.57 | 35.38 |
SAN-SAW [4] | 45.33 | 41.18 | 40.77 | 42.43 |
SHADE [5] | 46.66 | 43.66 | 45.50 | 45.27 |
DAFormer (我们的) [6] | 52.65* | 47.89* | 54.66* | 51.73* |
HRDA (我们的) | 57.41* | 49.11* | 61.16* | 55.90* |
* 我们扩展论文的新结果
参考文献:
本项目使用Python 3.8.5。我们建议设置一个新的虚拟环境:
python -m venv ~/venv/hrda source ~/venv/hrda/bin/activate
在该环境中,可以通过以下命令安装所需依赖:
pip install -r requirements.txt -f https://download.pytorch.org/whl/torch_stable.html pip install mmcv-full==1.3.7 # 需要先安装其他包
请从SegFormer提供的OneDrive下载MiT-B5 ImageNet权重,并将其放入pretrained/
文件夹。
此外,下载HRDA on GTA→Cityscapes的检查点并解压到work_dirs/
文件夹。
Cityscapes: 请从这里下载leftImg8bit_trainvaltest.zip和gt_trainvaltest.zip,并解压到data/cityscapes
。
GTA: 请从这里下载所有图像和标签包,并解压到data/gta
。
Synthia (可选): 请从这里下载SYNTHIA-RAND-CITYSCAPES,并解压到data/synthia
。
ACDC (可选): 请从这里下载rgb_anon_trainvaltest.zip和gt_trainval.zip,并解压到data/acdc
。然后,请使用以下命令将文件夹从condition/split/sequence/
重组为split/
:
rsync -a data/acdc/rgb_anon/*/train/*/* data/acdc/rgb_anon/train/ rsync -a data/acdc/rgb_anon/*/val/*/* data/acdc/rgb_anon/val/ rsync -a data/acdc/gt/*/train/*/*_labelTrainIds.png data/acdc/gt/train/ rsync -a data/acdc/gt/*/val/*/*_labelTrainIds.png data/acdc/gt/val/
Dark Zurich (可选): 请从这里下载Dark_Zurich_train_anon.zip和Dark_Zurich_val_anon.zip,并解压到data/dark_zurich
。
BDD100K (可选): 请从这里下载10K Images
和Segmentation
,并解压到data/bdd100k
。
Mapillary (可选): 请从这里下载mapillary-vistas-dataset_public_v1.2.zip,并解压到data/mapillary
。
最终的文件夹结构应如下所示:
HRDA ├── ... ├── data │ ├── acdc (可选) │ │ ├── gt │ │ │ ├── train │ │ │ ├── val │ │ ├── rgb_anon │ │ │ ├── train │ │ │ ├── val │ ├── bdd100k (可选) │ │ ├── images/10k/val │ │ ├── labels/sem_seg/masks/val │ ├── cityscapes │ │ ├── leftImg8bit │ │ │ ├── train │ │ │ ├── val │ │ ├── gtFine │ │ │ ├── train │ │ │ ├── val │ ├── dark_zurich (可选) │ │ ├── gt │ │ │ ├── val │ │ ├── rgb_anon │ │ │ ├── train │ │ │ ├── val │ ├── gta │ │ ├── images │ │ ├── labels │ ├── mapillary (可选) │ │ ├── validation/images │ │ ├── validation/labels │ ├── synthia (可选) │ │ ├── RGB │ │ ├── GT │ │ │ ├── LABELS ├── ...
数据预处理: 最后,请运行以下脚本以将标签ID转换为训练ID,并为RCS生成类别索引:
python tools/convert_datasets/gta.py data/gta --nproc 8 python tools/convert_datasets/cityscapes.py data/cityscapes --nproc 8 python tools/convert_datasets/synthia.py data/synthia/ --nproc 8 python tools/convert_datasets/mapillary.py data/mapillary/ --nproc 8
可以使用以下命令在Cityscapes验证集上测试提供的GTA→Cityscapes训练的HRDA检查点:
sh test.sh work_dirs/gtaHR2csHR_hrda_246ef
预测结果保存在work_dirs/gtaHR2csHR_hrda_246ef/preds
以供检查,模型的mIoU会打印到控制台。提供的检查点应达到73.79 mIoU。请参阅work_dirs/gtaHR2csHR_hrda_246ef/20220215_002056.log
末尾以获取更多信息,如各类别的IoU。
如果您想在验证集上可视化HRDA的LR预测、HR预测或尺度注意力,请参阅test.sh以获取更多说明。
为方便起见,我们提供了最终HRDA的带注释配置文件。可以使用以下命令启动训练任务:
python run_experiments.py --config configs/hrda/gtaHR2csHR_hrda.py
日志和检查点存储在work_dirs/
中。
对于我们论文中的其他实验,我们使用脚本自动生成和训练配置:
python run_experiments.py --exp <ID>
有关可用实验及其分配的ID的更多信息,请参见experiments.py。生成的配置将存储在configs/generated/
中。
评估在Synthia→Cityscapes上训练的模型时,请注意评估脚本计算的是所有19个Cityscapes类别的mIoU。然而,Synthia只包含其中16个类别的标签。因此,在UDA中通常的做法是仅报告这16个类别的Synthia→Cityscapes mIoU。由于缺失的3个类别的IoU为0,您可以使用mIoU16 = mIoU19 * 19 / 16
进行转换。
Cityscapes→ACDC和Cityscapes→DarkZurich的结果在目标数据集的测试集上报告。要生成测试集的预测结果,请运行:
python -m tools.test path/to/config_file path/to/checkpoint_file --test-set --format-only --eval-option imgfile_prefix=labelTrainIds to_label_id=False
预测结果可以提交到相应数据集的公开评估服务器以获取测试分数。
HRDA/DAFormer用于域泛化(DG)的版本位于DG分支,可以通过以下命令检出:
git checkout dg
可以使用以下命令进行DG训练:
python run_experiments.py --exp 50
更多详细信息,请参阅experiment.py。该模型在训练过程中仅使用GTA数据直接在Cityscapes上进行评估。还可以使用tools/test.py在BDD100K和Mapillary上进行额外评估:
python -m tools.test path/to/config_file path/to/checkpoint_file --eval mIoU --dataset BDD100K python -m tools.test path/to/config_file path/to/checkpoint_file --eval mIoU --dataset Mapillary --eval-option efficient_test=True
以下我们提供了HRDA在不同基准测试上的检查点。 这些检查点附带了训练日志文件。 由于论文中的结果是三个随机种子的平均值,这里我们提供验证性能中位数的检查点。
检查点附带训练日志。请注意:
本项目基于mmsegmentation 0.16.0版本。 有关框架结构和配置系统的更多信息,请参阅mmsegmentation文档和mmcv文档。
HRDA最相关的文件有:
HRDA基于以下开源项目。我们感谢这些项目的作者公开源代码。
本项目基于Apache License 2.0发布,但本仓库中的一些特定功能使用其他许可证。如果您将我们的代码用于商业用途,请仔细查看LICENSES.md。
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全 世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮 助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦 语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号