ReCon

ReCon

融合对比和生成方法的3D表示学习框架

ReCon是一个融合对比学习和生成式预训练的3D表示学习框架,有效解决了数据不足和表示过拟合问题。该框架在3D点云分类、少样本学习和零样本迁移等任务中表现出色,在ScanObjectNN数据集上达到91.26%的分类准确率。ReCon展现了在3D表示学习领域的先进性能,为相关研究提供了新的思路。

ReCon3D表示学习点云分类零样本学习少样本学习Github开源项目

🪖 ReCon: 对比与重建

对比重建:基于生成式预训练指导的对比性3D表示学习 ICML 2023 <br> Zekun Qi*, Runpei Dong*, Guofan Fan, Zheng Ge, Xiangyu Zhang, Kaisheng MaLi Yi <br>

OpenReview | arXiv | 模型

这个仓库包含了ReCon的代码发布:对比重建:基于生成式预训练指导的对比性3D表示学习(ICML 2023)。ReCon也是侦察的缩写 🪖。

对比与重建(ICML 2023)

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/654de7ef-99fb-40fc-bff0-bda25f51c343.png" width = "1100" align=center /> </div>

新闻

  • 🍾 2024年7月:ShapeLLM (ReCon++)被ECCV 2024接收,查看代码
  • 💥 2024年3月:查看我们最新的工作ShapeLLM (ReCon++),在ScanObjectNN上达到95.25%的微调精度和65.4的零样本精度
  • 📌 2023年8月:查看我们对高效条件3D生成的探索VPP
  • 📌 2023年6月:查看我们对3D场景预训练的探索Point-GCC
  • 🎉 2023年4月:ReCon被ICML 2023接收
  • 💥 2023年2月:查看我们之前的工作ACT,已被ICLR 2023接收

1. 要求

PyTorch >= 1.7.0; python >= 3.7; CUDA >= 9.0; GCC >= 4.9; torchvision;

# 快速开始
conda create -n recon python=3.10 -y
conda activate recon

conda install pytorch==2.0.1 torchvision==0.15.2 cudatoolkit=11.8 -c pytorch -c nvidia
# pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 -f https://download.pytorch.org/whl/torch_stable.html
# 安装基本必需包
pip install -r requirements.txt
# Chamfer距离
cd ./extensions/chamfer_dist && python setup.py install --user
# PointNet++
pip install "git+https://github.com/erikwijmans/Pointnet2_PyTorch.git#egg=pointnet2_ops&subdirectory=pointnet2_ops_lib"

2. 数据集

我们在本工作中使用了ShapeNet、ScanObjectNN、ModelNet40和ShapeNetPart。详情见DATASET.md

3. ReCon模型

任务数据集配置准确率检查点下载
预训练ShapeNetpretrain_base.yaml不适用ReCon
分类ScanObjectNNfinetune_scan_hardest.yaml91.26%PB_T50_RS
分类ScanObjectNNfinetune_scan_objbg.yaml95.35%OBJ_BG
分类ScanObjectNNfinetune_scan_objonly.yaml93.80%OBJ_ONLY
分类ModelNet40(1k)finetune_modelnet.yaml94.5%ModelNet_1k
分类ModelNet40(8k)finetune_modelnet_8k.yaml94.7%ModelNet_8k
零样本ModelNet10zeroshot_modelnet10.yaml75.6%ReCon零样本
零样本ModelNet10*zeroshot_modelnet10.yaml81.6%ReCon零样本
零样本ModelNet40zeroshot_modelnet40.yaml61.7%ReCon零样本
零样本ModelNet40*zeroshot_modelnet40.yaml66.8%ReCon零样本
零样本ScanObjectNNzeroshot_scan_objonly.yaml43.7%ReCon零样本
线性SVMModelNet40svm.yaml93.4%ReCon svm
部件分割ShapeNetPartsegmentation86.4% mIoU部件分割
任务数据集配置5类10样本 (%)5类20样本 (%)
---------------------------------------------------------------------------------------------------
小样本学习ModelNet40fewshot.yaml97.3 ± 1.998.9 ± 1.2

检查点和日志已在Google Drive上发布。你可以在分类测试中使用投票策略来复现论文中报告的性能。 对于分类下游任务,我们随机选择8个种子来获得最佳检查点。 对于零样本学习,*表示我们使用所有训练/测试数据进行零样本迁移。

4. ReCon预训练

使用默认配置进行预训练,运行脚本:

sh scripts/pretrain.sh <GPU> <exp_name>

如果你想尝试不同的模型或掩码比例等,首先创建一个新的配置文件,并将其路径传递给--config。

CUDA_VISIBLE_DEVICES=<GPU> python main.py --config <config_path> --exp_name <exp_name>

5. ReCon分类微调

使用默认配置进行微调,运行脚本:

bash scripts/cls.sh <GPU> <exp_name> <path/to/pre-trained/model>

或者,你可以使用以下命令。

在ScanObjectNN上进行微调,运行:

CUDA_VISIBLE_DEVICES=<GPUs> python main.py --config cfgs/full/finetune_scan_hardest.yaml \
--finetune_model --exp_name <exp_name> --ckpts <path/to/pre-trained/model>

在ModelNet40上进行微调,运行:

CUDA_VISIBLE_DEVICES=<GPUs> python main.py --config cfgs/full/finetune_modelnet.yaml \
--finetune_model --exp_name <exp_name> --ckpts <path/to/pre-trained/model>

6. ReCon测试&投票

使用默认配置进行测试&投票,运行脚本:

bash scripts/test.sh <GPU> <exp_name> <path/to/best/fine-tuned/model>

或:

CUDA_VISIBLE_DEVICES=<GPUs> python main.py --test --config cfgs/finetune_modelnet.yaml \
--exp_name <output_file_name> --ckpts <path/to/best/fine-tuned/model>

7. ReCon小样本

使用默认配置进行小样本学习,运行脚本:

sh scripts/fewshot.sh <GPU> <exp_name> <path/to/pre-trained/model> <way> <shot> <fold>

CUDA_VISIBLE_DEVICES=<GPUs> python main.py --config cfgs/full/fewshot.yaml --finetune_model \
--ckpts <path/to/pre-trained/model> --exp_name <exp_name> --way <5 or 10> --shot <10 or 20> --fold <0-9>

8. ReCon零样本

使用默认配置进行零样本学习,运行脚本:

bash scripts/zeroshot.sh <GPU> <exp_name> <path/to/pre-trained/model>

9. ReCon部件分割

在ShapeNetPart上进行部件分割,运行:

cd segmentation
bash seg.sh <GPU> <exp_name> <path/to/pre-trained/model>

cd segmentation
python main.py --ckpts <path/to/pre-trained/model> --log_dir <path/to/log/dir> --learning_rate 0.0001 --epoch 300

在ShapeNetPart上测试部件分割,运行:

cd segmentation
bash test.sh <GPU> <exp_name> <path/to/best/fine-tuned/model>

10. ReCon线性SVM

在ModelNet40上进行线性SVM,运行:

sh scripts/svm.sh <GPU> <exp_name> <path/to/pre-trained/model> 

11. 可视化

我们使用PointVisualizaiton仓库来渲染漂亮的点云图像,包括指定颜色渲染和注意力分布渲染。

联系方式

如果你有任何与代码或论文相关的问题,欢迎发邮件给Zekun(qizekun@gmail.com)或Runpei(runpei.dong@gmail.com)。

许可证

ReCon在MIT许可证下发布。更多详情请参见LICENSE文件。此外,pointnet2模块的许可信息可以在这里找到。

致谢

本代码库基于Point-MAEPoint-BERTCLIPPointnet2_PyTorchACT构建。

引用

如果你在研究中发现我们的工作有用,请考虑引用:

@inproceedings{qi2023recon, title={Contrast with Reconstruct: Contrastive 3D Representation Learning Guided by Generative Pretraining}, author={Qi, Zekun and Dong, Runpei and Fan, Guofan and Ge, Zheng and Zhang, Xiangyu and Ma, Kaisheng and Yi, Li}, booktitle={International Conference on Machine Learning (ICML) }, year={2023} }

以及密切相关的工作ACTShapeLLM

@inproceedings{dong2023act, title={Autoencoders as Cross-Modal Teachers: Can Pretrained 2D Image Transformers Help 3D Representation Learning?}, author={Runpei Dong and Zekun Qi and Linfeng Zhang and Junbo Zhang and Jianjian Sun and Zheng Ge and Li Yi and Kaisheng Ma}, booktitle={The Eleventh International Conference on Learning Representations (ICLR) }, year={2023}, url={https://openreview.net/forum?id=8Oun8ZUVe8N} } @inproceedings{qi2024shapellm, author = {Qi, Zekun and Dong, Runpei and Zhang, Shaochen and Geng, Haoran and Han, Chunrui and Ge, Zheng and Yi, Li and Ma, Kaisheng}, title = {ShapeLLM: Universal 3D Object Understanding for Embodied Interaction}, booktitle={European Conference on Computer Vision (ECCV) }, year = {2024} }

编辑推荐精选

音述AI

音述AI

全球首个AI音乐社区

音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。

QoderWork

QoderWork

阿里Qoder团队推出的桌面端AI智能体

QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。

lynote.ai

lynote.ai

一站式搞定所有学习需求

不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。

AniShort

AniShort

为AI短剧协作而生

专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。

seedancetwo2.0

seedancetwo2.0

能听懂你表达的视频模型

Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。

nano-banana纳米香蕉中文站

nano-banana纳米香蕉中文站

国内直接访问,限时3折

输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

下拉加载更多