VLN-BEVBert

VLN-BEVBert

多模态地图预训练助力语言引导导航

BEVBert项目为视觉语言导航(VLN)任务开发了新型地图预训练范式。通过结合局部度量地图和全局拓扑地图,该方法平衡了VLN的短期推理和长期规划需求。在R2R、R2R-CE、RxR和REVERIE四个VLN基准测试中,BEVBert展现出领先性能。项目开源了完整代码,并提供详细指南,便于研究人员复现实验和进行深入研究。

BEVBert视觉语言导航多模态地图预训练空间感知交叉模态推理Github开源项目
<div align="center"> <h1>BEVBert: 用于语言引导导航的多模态地图预训练</h1> <div> <a href='https://marsaki.github.io/' target='_blank'>安东</a>; <a href='https://sites.google.com/site/yuankiqi/home' target='_blank'>祁元凯</a>; <a href='https://scholar.google.com/citations?user=a7AMvgkAAAAJ&hl=zh-CN'>李阳光</a>; <a href='https://yanrockhuang.github.io/' target='_blank'>黄岩</a>; <a href='http://scholar.google.com/citations?user=8kzzUboAAAAJ&hl=zh-CN' target='_blank'>王亮</a>; <a href='https://scholar.google.com/citations?user=W-FGd_UAAAAJ&hl=en' target='_blank'>谭铁牛</a>; <a href='https://amandajshao.github.io/' target='_blank'>邵婧</a>; </div> <h3><strong>被<a href='https://iccv2023.thecvf.com/' target='_blank'>ICCV 2023</a>接收</strong></h3> <h3 align="center"> <a href="https://arxiv.org/pdf/2212.04385.pdf" target='_blank'>论文</a> </h3> </div>

摘要

大规模预训练在视觉语言导航(VLN)任务中展现了令人瞩目的成果。然而,大多数现有的预训练方法采用离散全景图来学习视觉-文本关联。这要求模型隐式地关联全景图中不完整、重复的观察,可能会损害代理的空间理解能力。因此,我们提出了一种新的基于地图的预训练范式,专为VLN设计,具有空间感知能力。具体而言,我们构建了一个局部度量地图,明确地聚合不完整的观察并去除重复,同时在全局拓扑地图中建模导航依赖关系。这种混合设计可以平衡VLN对短期推理和长期规划的需求。然后,基于这种混合地图,我们设计了一个预训练框架来学习多模态地图表示,增强了空间感知的跨模态推理能力,从而促进语言引导的导航目标。大量实验证明了基于地图的预训练路线对VLN的有效性,所提出的方法在四个VLN基准测试(R2R、R2R-CE、RxR、REVERIE)中达到了最先进水平。

方法

待办事项

  • 发布VLN(R2R、RxR、REVERIE)代码。
  • 发布VLN-CE(R2R-CE)代码。
  • 数据预处理代码。
  • 发布检查点和预处理数据集。

设置

安装

  1. 创建虚拟环境。我们使用Python 3.6开发此项目。

    conda env create -f environment.yaml
  2. 安装最新版本的Matterport3DSimulator,包括Matterport3D RGBD数据集(用于第6步)。

  3. 下载Matterport3D场景网格。必须从Matterport3D项目网页获取download_mp.pydownload_mp.py也用于在第2步下载RGBD数据集。

# 使用python 2.7运行 python download_mp.py --task habitat -o data/scene_datasets/mp3d/ # 解压到:./data/scene_datasets/mp3d/{scene}/{scene}.glb

按照Habitat安装指南安装habitat-simhabitat-lab。我们在实验中使用v0.1.7版本。简而言之:

  1. 为具有多个GPU或没有连接显示器的机器(如集群)安装habitat-sim

    conda install -c aihabitat -c conda-forge habitat-sim=0.1.7 headless
  2. 从GitHub仓库克隆habitat-lab并安装。以下命令将安装Habitat Lab的核心以及habitat_baselines。

    git clone --branch v0.1.7 git@github.com:facebookresearch/habitat-lab.git cd habitat-lab python setup.py develop --all # 安装habitat和habitat_baselines
  3. 用于度量地图的网格特征预处理(约100G)。

    # 适用于R2R、RxR、REVERIE python precompute_features/grid_mp3d_clip.py python precompute_features/grid_mp3d_imagenet.py python precompute_features/grid_depth.py python precompute_features/grid_sem.py

R2R-CE 预训练

python precompute_features/grid_habitat_clip.py python precompute_features/save_habitat_img.py --img_type depth python precompute_features/save_depth_feature.py

7. 下载预处理的指令数据集和训练好的权重[[链接]](https://drive.google.com/file/d/1jYg_dMlCDZoOtrkmmq40k-_-m6xerdUI/view?usp=sharing)。目录结构已经整理好。对于R2R-CE实验,按照[ETPNav](https://github.com/MarSaKi/ETPNav)的方法在`bevbert_ce/data`文件夹中配置VLN-CE数据集,并将训练好的CE权重[[链接]](https://drive.google.com/file/d/1-2u1NWmwpX09Rg7uT5mABo-CBTsLthGm/view?usp=sharing)放入`bevbert_ce/ckpt`。

祝你使用BEVBert进行VLN之旅顺利!

## 运行

预训练。下载预计算的图像特征[[链接]](https://drive.google.com/file/d/1S8jD1Mln0mbTsB5I_i2jdQ8xBbnw-Dyr/view?usp=sharing)到`img_features`文件夹。

CUDA_VISIBLE_DEVICES=0,1,2,3 bash scripts/pt_r2r.bash 2333 # R2R CUDA_VISIBLE_DEVICES=0,1,2,3 bash scripts/pt_rxr.bash 2333 # RxR CUDA_VISIBLE_DEVICES=0,1,2,3 bash scripts/pt_rvr.bash 2333 # REVERIE

cd bevbert_ce/pretrain CUDA_VISIBLE_DEVICES=0,1,2,3 bash run_pt/run_r2r.bash 2333 # R2R-CE


微调和测试,训练好的权重可以在步骤7中找到。

CUDA_VISIBLE_DEVICES=0,1,2,3 bash scripts/ft_r2r.bash 2333 # R2R CUDA_VISIBLE_DEVICES=0,1,2,3 bash scripts/ft_rxr.bash 2333 # RxR CUDA_VISIBLE_DEVICES=0,1,2,3 bash scripts/ft_rvr.bash 2333 # REVERIE

cd bevbert_ce CUDA_VISIBLE_DEVICES=0,1,2,3 bash run_r2r/main.bash [train/eval/infer] 2333 # R2R-CE


# 联系方式

* dong DOT an AT cripac DOT ia DOT ac DOT cn, [安东](https://marsaki.github.io/)
* yhuang AT nlpr DOT ia DOT ac DOT cn, [黄岩](https://yanrockhuang.github.io/)

# 致谢

我们的实现部分受到了[DUET](https://github.com/cshizhe/VLN-DUET)、[S-MapNet](https://github.com/vincentcartillier/Semantic-MapNet)和[ETPNav](https://github.com/MarSaKi/ETPNav)的启发。

感谢他们开源了这些出色的工作!

# 引用

如果您觉得这个仓库有用,请考虑引用我们的论文:

@article{an2023bevbert, title={BEVBert: Multimodal Map Pre-training for Language-guided Navigation}, author={An, Dong and Qi, Yuankai and Li, Yangguang and Huang, Yan and Wang, Liang and Tan, Tieniu and Shao, Jing}, journal={Proceedings of the IEEE/CVF International Conference on Computer Vision}, year={2023} }

编辑推荐精选

潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

下拉加载更多