Hierarchical-Localization

Hierarchical-Localization

模块化的6自由度视觉定位工具箱实现分层定位方法

这是一个用于6自由度视觉定位的开源工具箱。它采用分层定位方法,结合图像检索和特征匹配技术,提供快速、准确和可扩展的定位能力。该工具箱整合了图像匹配和运动恢复结构(SfM)领域的研究成果,可重现多个室内外视觉定位基准的最佳结果,并支持实现和调试新的定位流程。

hloc视觉定位特征提取特征匹配图像检索Github开源项目

hloc - 分层定位工具箱

这是 hloc,一个用于最先进的6自由度视觉定位的模块化工具箱。它实现了分层定位,利用图像检索和特征匹配,具有快速、准确和可扩展的特点。这个代码库结合并轻松实现了多年来在图像匹配和运动结构重建方面的研究成果。

使用 hloc,你可以:

  • 在多个室内和室外视觉定位基准测试中复现最先进的结果
  • 使用SuperPoint+SuperGlue进行运动结构重建,以便用你自己的数据集进行定位
  • 评估你自己的局部特征或图像检索用于视觉定位
  • 实现新的定位流程并轻松调试 🔥
<p align="center"> <a href="https://arxiv.org/abs/1812.03506"><img src="https://yellow-cdn.veclightyear.com/0a4dffa0/c343dd98-60db-4d0a-896b-9c03f13612c4.png" width="60%"/></a> <br /><em>分层定位同时使用图像检索和特征匹配</em> </p>

快速开始 ➡️ 在Colab中打开

直接在你的浏览器中使用运动结构重建构建3D地图,并定位任何互联网图像!你现在可以在Google Colab中免费使用GPU运行hloc和COLMAP。 笔记本demo.ipynb展示了如何仅需几个步骤就能运行SfM和定位。尝试使用你自己的数据,并告诉我们结果!

安装

hloc需要Python >=3.7和PyTorch >=1.1。在本地安装该包会自动拉取其他依赖项:

git clone --recursive https://github.com/cvg/Hierarchical-Localization/ cd Hierarchical-Localization/ python -m pip install -e .

所有依赖项都列在requirements.txt中。hloc-v1.3版本开始,不再需要安装COLMAP。 这个仓库包含了外部局部特征作为git子模块 - 别忘了使用git submodule update --init --recursive拉取子模块。

我们还提供了一个Docker镜像:

docker build -t hloc:latest . docker run -it --rm -p 8888:8888 hloc:latest # 对于GPU支持,添加 `--runtime=nvidia` jupyter notebook --ip 0.0.0.0 --port 8888 --no-browser --allow-root

通用流程

该工具箱由脚本组成,大致执行以下步骤:

  1. 为所有数据库和查询图像提取局部特征,如SuperPointDISK
  2. 构建参考3D SfM模型
    1. 找到共视的数据库图像,通过检索或先前的SfM模型
    2. 使用SuperGlue或更快的LightGlue匹配这些数据库对
    3. 使用COLMAP三角测量新的SfM模型
  3. 使用检索找到与每个查询相关的数据库图像
  4. 匹配查询图像
  5. 运行定位
  6. 可视化和调试

对于支持的数据集,定位可以在visuallocalization.net上进行评估。当有3D激光雷达扫描可用时,如室内数据集InLoc,可以跳过步骤2。

工具箱结构:

  • hloc/*.py:顶级脚本
  • hloc/extractors/:特征提取器接口
  • hloc/matchers/:特征匹配器接口
  • hloc/pipelines/:多个数据集的完整流程

hloc可以作为外部包导入,使用import hloc,或从命令行调用:

python -m hloc.name_of_script --arg1 --arg2

任务

我们提供了使用Aachen和InLoc进行定位的分步指南,以及使用SfM为你自己的数据生成参考位姿。只需下载数据集,你就可以开始了!

Aachen - 室外定位

查看pipeline_Aachen.ipynb,了解使用Aachen进行定位的分步指南。尝试可视化,试用新的局部特征或匹配器,玩得开心!不喜欢笔记本?你也可以从命令行运行所有脚本。

<p align="center"> <a href="https://nbviewer.jupyter.org/github/cvg/Hierarchical-Localization/blob/master/pipeline_Aachen.ipynb"><img src="https://yellow-cdn.veclightyear.com/0a4dffa0/d7a96483-e300-4e18-818c-bde81bfceb70.svg" width="70%"/></a> </p>

InLoc - 室内定位

笔记本pipeline_InLoc.ipynb展示了使用InLoc进行定位的步骤。由于不需要3D SfM模型,这个过程要简单得多。

<p align="center"> <a href="https://nbviewer.jupyter.org/github/cvg/Hierarchical-Localization/blob/master/pipeline_InLoc.ipynb"><img src="https://yellow-cdn.veclightyear.com/0a4dffa0/70dd2ebd-2cae-40f9-883c-4df02f429dc4.svg" width="70%"/></a> </p>

从头开始的SfM重建

我们在pipeline_SfM.ipynb中展示了如何为一组无序图像运行3D重建。这会生成参考位姿,以及适合使用与Aachen相同的流程进行定位的精美稀疏3D模型。

结果

使用NetVLAD进行检索,我们获得了以下最佳结果:

方法亚琛白天亚琛夜晚检索
SuperPoint + SuperGlue89.6 / 95.4 / 98.886.7 / 93.9 / 100NetVLAD 前50个
SuperPoint + NN85.4 / 93.3 / 97.275.5 / 86.7 / 92.9NetVLAD 前30个
D2Net (SS) + NN84.6 / 91.4 / 97.183.7 / 90.8 / 100NetVLAD 前30个
方法InLoc DUC1InLoc DUC2检索
SuperPoint + SuperGlue46.5 / 65.7 / 78.352.7 / 72.5 / 79.4NetVLAD 前40个
SuperPoint + SuperGlue (时序)49.0 / 68.7 / 80.853.4 / 77.1 / 82.4NetVLAD 前40个
SuperPoint + NN39.9 / 55.6 / 67.237.4 / 57.3 / 70.2NetVLAD 前20个
D2Net (SS) + NN39.9 / 57.6 / 67.236.6 / 53.4 / 61.8NetVLAD 前20个

查看 visuallocalization.net/benchmark 获取更多详情和其他基准。

支持的数据集

我们在 hloc/pipelines/ 中提供了脚本,用于在以下数据集上运行重建和定位:Aachen Day-Night(v1.0 和 v1.1)、InLoc、Extended CMU Seasons、RobotCar Seasons、4Seasons、Cambridge Landmarks 和 7-Scenes。例如,按照此处给出的说明下载数据集后,我们可以使用以下命令运行 Aachen Day-Night 管道与 SuperPoint+SuperGlue:

python -m hloc.pipelines.Aachen.pipeline [--outputs ./outputs/aachen]

BibTex 引用

如果您在出版物中报告上述任何结果,或使用此处提供的任何工具,请考虑同时引用 Hierarchical LocalizationSuperGlue 论文:

@inproceedings{sarlin2019coarse,
  title     = {From Coarse to Fine: Robust Hierarchical Localization at Large Scale},
  author    = {Paul-Edouard Sarlin and
               Cesar Cadena and
               Roland Siegwart and
               Marcin Dymczyk},
  booktitle = {CVPR},
  year      = {2019}
}

@inproceedings{sarlin2020superglue,
  title     = {{SuperGlue}: Learning Feature Matching with Graph Neural Networks},
  author    = {Paul-Edouard Sarlin and
               Daniel DeTone and
               Tomasz Malisiewicz and
               Andrew Rabinovich},
  booktitle = {CVPR},
  year      = {2020},
}

更进一步

调试和可视化

<details> <summary>[点击展开]</summary>

每次定位运行都会生成一个 pickle 日志文件。对于每个查询,它包含选定的数据库图像、它们的匹配项以及来自姿态求解器的信息,如 RANSAC 内点。因此,可以解析它以收集统计数据并分析失败模式或困难场景。

我们还在 hloc/visualization.py 中提供了一些可视化工具,用于可视化 3D SfM 模型的某些属性,如关键点的可见性、轨迹长度或估计的稀疏深度(如下所示)。

<p align="center"> <a href="./pipeline_Aachen.ipynb"><img src="https://yellow-cdn.veclightyear.com/0a4dffa0/4786a056-4e3f-42ce-80a3-4e5e350e22dc.svg" width="60%"/></a> </p> </details>

使用您自己的局部特征或匹配器

<details> <summary>[点击展开]</summary>

如果您的代码基于 PyTorch:只需在 hloc/extractors/hloc/matchers/ 中添加一个新接口。它需要继承自 hloc.utils.base_model.BaseModel,将数据字典作为输入,并输出预测字典。参考 hloc/extractors/superpoint.py 作为示例。您还可以在 hloc/extract_features.pyhloc/match_features.py 中定义标准配置 - 然后可以直接从命令行调用它。

如果您的代码基于 TensorFlow:您需要修改 hloc/extract_features.pyhloc/match_features.py,或者自行将特征和匹配导出为 HDF5 文件,如下所述。

在特征文件中,每个键对应于相对于数据集根目录的图像相对路径(例如,Aachen 的 db/1.jpg),并且每个预测有一个数据集(例如,形状为 Nx2 和 DxN 的 keypointsdescriptors)。

在匹配文件中,每个键对应于字符串 path0.replace('/', '-')+'_'+path1.replace('/', '-'),并有一个形状为 N 的数据集 matches0。它表示第一张图像中每个关键点在第二张图像中匹配关键点的索引,如果关键点未匹配则为 -1

</details>

使用您自己的图像检索

<details> <summary>[点击展开]</summary>

hloc 还通过 hloc/extract_features.py 提供了图像检索的接口。如前所述,只需在 hloc/extractors/ 中添加一个新接口。或者,您需要将全局描述符导出到 HDF5 文件中,其中每个键对应于相对于数据集根目录的图像相对路径,并包含大小为 D 的数据集 global_descriptor。然后,您可以使用 hloc/pairs_from_retrieval.py 导出图像对。

</details>

已知相机参数的重建

<details> <summary>[点击展开]</summary>

如果已知相机的校准参数,例如来自外部校准系统,您可以告诉 hloc 使用这些参数,而不是从 EXIF 估算它们。相机模型的名称及其参数由 COLMAP 定义。Python API:

opts = dict(camera_model='SIMPLE_RADIAL', camera_params=','.join(map(str, (f, cx, cy, k)))) model = reconstruction.main(..., image_options=opts)

命令行接口:

python -m hloc.reconstruction [...] --image_options camera_model='"SIMPLE_RADIAL"' camera_params='"256,256,256,0"'

默认情况下,hloc 在重建过程中会优化相机参数。要防止这种情况,请添加:

reconstruction.main(..., mapper_options=dict(ba_refine_focal_length=False, ba_refine_extra_params=False))
python -m hloc.reconstruction [...] --mapper_options ba_refine_focal_length=False ba_refine_extra_params=False
</details>

版本

<details> <summary>v1.4(2023年7月)</summary> - 新前端 - 全局特征:OpenIBL、CosPlace - 图像块描述符:SOSNet、HardNet - 检测器和描述符:DISK - 稀疏匹配:AdaLAM、LightGlue - 密集匹配:LoFTR - 三角测量:使用已知相机姿态进行双视图几何验证 - 控制COLMAP导入和重建选项 - 性能 - 更可靠地跳过匹配文件中的现有对 - 更快的HDF5写入 - match_features中的并行读写 - 为LaMAR添加标量检测不确定性 - 文档 - 更新的依赖要求:tqdm>=4.36.0,pycolmap>=0.3.0,kornia>=0.6.11

v1.3(2022年1月)

  • Google Colab上的演示笔记本
  • 使用新的pycolmap重建对象和流程API
    • 不再需要安装COLMAP - 只需pycolmap即可
    • 更快的模型读写
    • 通过camera_mode参数对相机共享进行精细控制
    • 未知或不准确焦距的定位
  • 模块化定位API,可控制所有估计器参数
  • 使用plotly进行相机视锥和点的3D可视化
  • 在hloc命名空间中进行包特定日志记录
  • 默认将提取的特征存储为fp16而不是fp32
  • 可选修复SuperPoint描述符采样中的长期存在的bug
  • 添加脚本以计算用于重建或定位的详尽配对
  • 要求pycolmap>=0.1.0和Python>=3.7

v1.2(2021年12月)

  • 错误修复和可用性改进。
  • 支持PIL后端进行图像调整大小。
  • 添加__version__属性以检查未来版本。

v1.1(2021年7月)

  • 重大变更:改进SfM文件夹结构(三角测量和重建)
  • 支持图像检索(NetVLAD、DIR)和更多局部特征(SIFT、R2D2)
  • 支持更多数据集:Aachen v1.1、Extended CMU Seasons、RobotCar Seasons、Cambridge Landmarks、7-Scenes
  • 简化的流程和API
  • 空间匹配器

v1.0(2020年7月)

初始公开版本。

欢迎贡献!

非常欢迎外部贡献。请遵循PEP8样式指南,使用flake8等代码检查工具。以下是可能有价值的添加功能的非详尽列表:

  • 支持GPS(从EXIF提取 + 引导检索)
  • InLoc的共视聚类
  • 原始预测的可视化(特征和匹配)
  • 其他局部特征或图像检索

由Paul-Edouard Sarlin创建和维护,得到许多贡献者的帮助。

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多