平台 | 构建状态 |
---|---|
Ubuntu 20.04.3 |
佐治亚理工运动恢复结构(GTSfM)是一个基于GTSAM的端到端SfM流程。GTSfM从零开始设计,原生支持使用Dask进行并行计算。
更多详情,请参阅我们的arXiv预印本。
<p align="left"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/bb657004-0ef4-4b32-87a5-611eef1e76ac.gif" height="315" title="Olsson Lund数据集:门,12张图像"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/766d2a05-d8b0-48c6-8af5-0807c2665254.gif" height="315"> </p> <p align="left"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/bbd0e6fd-c41d-4529-bdca-d4f4f88c15e3.gif" height="345" title="2011212_opnav_022"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/faf7d4af-1a9a-48dd-8c3b-47502f09fcae.gif" height="345"> </p>我们的大部分代码受MIT许可证管理,适合商业使用。然而,我们仓库中的某些实现(如SuperPoint、SuperGlue)受非商业许可证管理,不可用于商业目的。
GTSfM无需编译,因为GTSAM提供了Python轮子。本仓库包含作为Git子模块的外部仓库 -- 别忘了使用git submodule update --init --recursive
拉取子模块 ,或使用git clone --recursive https://github.com/borglab/gtsfm.git
克隆。
要运行GTSfM,首先需要创建一个包含所需依赖项的conda环境。
在Linux上,支持CUDA,运行:
conda env create -f environment_linux.yml conda activate gtsfm-v1 # 根据您的bash和conda设置,可能需要使用"source activate gtsfm-v1"
在macOS上,不支持CUDA,所以运行:
conda env create -f environment_mac.yml conda activate gtsfm-v1
现在,将gtsfm
作为模块安装:
pip install -e .
确保您可以在Python中运行python -c "import gtsfm; import gtsam; print('hello world')"
,那么就一切就绪了!
在运行重建之前,如果您打算使用带有预训练权重的模块,如SuperPoint、SuperGlue或PatchmatchNet,请先运行:
./download_model_weights.sh
要对只有图像目录和EXIF数据的数据集运行SfM,图像文件名以"jpg"结尾,请创建以下文件结构:
└── {数据集名称}
├── images
├── image1.jpg
├── image2.jpg
├── image3.jpg
然后运行
python gtsfm/runner/run_scene_optimizer_olssonloader.py --config_name {配置名称} --dataset_root {数据集根目录} --num_workers {工作进程数}
例如,如果您有4个可用核心,并想在"door"数据集上使用深度前端(推荐),您应该运行:
python gtsfm/runner/run_scene_optimizer_olssonloader.py --dataset_root tests/data/set1_lund_door --config_name deep_front_end.yaml --num_workers 4
(或您想要的任何工作进程数)。
您可以使用Dask仪表板查看/监控分布式计算。
目前我们需要EXIF数据嵌入到您的图像中(或者您可以按Olsson数据集的预期格式提供真实内参,或COLMAP导出的文本数据等)
如果您想比较GTSfM输出和COLMAP输出,请运行:
python gtsfm/runner/run_scene_optimizer_colmaploader.py --config_name {配置名称} --images_dir {图像目录} --colmap_files_dirpath {COLMAP文件目录路径} --num_workers {工作进程数} --max_frame_lookahead {最大帧预览数}
其中 COLMAP_FILES_DIRPATH
是保存了 cameras.txt
、images.txt
等 .txt 文件的目录。
要使用 Open3D 可视化结果,请运行:
python gtsfm/visualization/view_scene.py
对于需要重复处理同一数据集的用户,我们提供了缓存 GTSfM 前端结果的功能,以便后续进行非常快速的推理。更多信息请参考 gtsfm/frontend/cacher/README.md
。
对于想要在多台机器组成的集群上运行 GTSfM 的用户,我们在这里提供了设置说明:CLUSTER.md
结果将存储在 --output_root
中,默认为仓库根目录下的 results
文件夹。姿态和 3D 轨迹以 COLMAP 格式存储在 --output_root
的 ba_output
子目录中。这些也可以使 用 COLMAP GUI 进行可视化。
我们提供了一个预处理脚本,用于将 GTSfM 估计的相机姿态转换为 nerfstudio 格式:
python scripts/prepare_nerfstudio.py --results_path {RESULTS_DIR} --images_dir {IMAGES_DIR}
结果存储在 {RESULTS_DIR}
内的 nerfstudio_input 子目录中,如果已安装 nerfstudio,可以直接使用:
ns-train nerfacto --data {RESULTS_DIR}/nerfstudio_input
GTSfM 采用了高度模块化的设计。只要实现了模块的抽象基类 API,每个模块都可以替换为新的模块。代码组织如下:
gtsfm
:源代码,组织如下:
averaging
bundle
:捆绑调整实现common
:GTSFM 中使用的基本类,如 Keypoints
、Image
、SfmTrack2d
等data_association
:3D 点三角测量(DLT),有或无 RANSAC,基于 2D 点轨迹densify
frontend
:SfM 前端代码,包括:
detector
:关键点检测器实现(DoG 等)descriptor
:特征描述符实现(SIFT、SuperPoint 等)matcher
:描述符匹配实现(Superglue 等)verifier
:2D 对应验证器实现(Degensac、OA-Net 等)cacher
:前端不同阶段的缓存实现loader
:图像数据加载器utils
:实用函数,如序列化例程和姿态比较等tests
:每个函数和模块的单元测试我们随时欢迎贡献!请注意本项目的贡献指南。
如果您使用 GTSfM,请引用我们的论文:
@misc{baid2023distributed,
title={Distributed Global Structure-from-Motion with a Deep Front-End},
author={Ayush Baid and John Lambert and Travis Driver and Akshay Krishnan and Hayk Stepanyan and Frank Dellaert},
year={2023},
eprint={2311.18801},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
引用开源 Python 实现:
@misc{GTSFM,
author = {Ayush Baid and Travis Driver and Fan Jiang and Akshay Krishnan and John Lambert
and Ren Liu and Aditya Singh and Neha Upadhyay and Aishwarya Venkataramanan
and Sushmita Warrier and Jon Womack and Jing Wu and Xiaolong Wu and Frank Dellaert},
title = { {GTSFM}: Georgia Tech Structure from Motion},
howpublished={\url{https://github.com/borglab/gtsfm}},
year = {2021}
}
注:作者按姓氏字母顺序排列。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开 发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问 题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号