
先进的点云处理框架
PointTransformerV3是一个创新的点云处理框架,在多个基准测试中展现出卓越性能。该项目优化了模型结构,提升了运行速度和处理能力。它适用于室内外场景的语义分割,通过多数据集预训练进一步增强了效果。研究人员可利用开源代码和预训练模型轻松复现结果或应用于自身项目。
这个仓库是论文**《点云变换器V3:更简单、更快速、更强大》**的官方项目仓库,主要用于发布日程安排、更新说明、分享实验记录(包含模型权重) 和处理问题。代码将在_Pointcept v1.5_中更新。
[ 骨干网络 ] [PTv3] - [ arXiv ] [ 引用 ] [ 代码 ]
为了尽快提供我们优化过的代码和复现的实验,这次我们将在验证后立即发布已完成的内容,而不是等所有工作完成后一起发布。我们列出了以下任务列表:
如果您发现_PTv3_对您的研究有用,请引用我们的工作以表示感谢。(੭ˊ꒳ˋ)੭✧
@inproceedings{wu2024ptv3, title={Point Transformer V3: Simpler, Faster, Stronger}, author={Wu, Xiaoyang and Jiang, Li and Wang, Peng-Shuai and Liu, Zhijian and Liu, Xihui and Qiao, Yu and Ouyang, Wanli and He, Tong and Zhao, Hengshuang}, booktitle={CVPR}, year={2024} } @inproceedings{wu2024ppt, title={Towards Large-scale 3D Representation Learning with Multi-dataset Point Prompt Training}, author={Wu, Xiaoyang and Tian, Zhuotao and Wen, Xin and Peng, Bohao and Liu, Xihui and Yu, Kaicheng and Zhao, Hengshuang}, booktitle={CVPR}, year={2024} } @inproceedings{wu2022ptv2, title={点变换器V2:分组向量注意力和基于分区的池化}, author={Wu, Xiaoyang and Lao, Yixing and Jiang, Li and Liu, Xihui and Zhao, Hengshuang}, booktitle={NeurIPS}, year={2022} } @misc{pointcept2023, title={Pointcept:一个用于点云感知研究的代码库}, author={Pointcept贡献者}, howpublished={\url{https://github.com/Pointcept/Pointcept}}, year={2023} }
PTv3依赖于FlashAttention,而FlashAttention依赖于以下要求,请确保您的本地Pointcept环境满足这些要求:
(推荐)
如果您无法将本地环境升级以满足 上述推荐要求,以下是运行带Pointcept的PTv3的最低要求,您需要禁用Flash Attention以启用PTv3:
(最低)
conda create -n pointcept python=3.8 -y conda activate pointcept conda install ninja -y # 在此选择您想要的版本:https://pytorch.org/get-started/previous-versions/ # 我们在开发PTv3时使用CUDA 11.8和PyTorch 2.1.0 conda install pytorch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 pytorch-cuda=11.8 -c pytorch -c nvidia conda install h5py pyyaml -c anaconda -y conda install sharedarray tensorboard tensorboardx yapf addict einops scipy plyfile termcolor timm -c conda-forge -y conda install pytorch-cluster pytorch-scatter pytorch-sparse -c pyg -y pip install torch-geometric cd libs/pointops python setup.py install cd ../.. # spconv (SparseUNet) # 参考 https://github.com/traveller59/spconv pip install spconv-cu118 # 选择与您本地cuda版本匹配的版本 # Open3D (可视化,可选) pip install open3d
按照Flash Attention仓库中的README安装PTv3的Flash Attention。这个安装是可选的,但我们建议为PTv3启用Flash Attention。
请进一步参考Pointcept readme的数据准备部分。
我们为PTv3提供了两种运行场景,Pointcept驱动和自定义框架驱动。对于前者,您只需将Pointcept的代码克隆到本地,然后按照Pointcept中的快速开始运行PTv3:
git clone https://github.com/Pointcept/Pointcept.git sh scripts/train.sh -p ${INTERPRETER_PATH} -g ${NUM_GPU} -d ${DATASET_NAME} -c ${CONFIG_NAME} -n ${EXP_NAME}
对于后一种场景,我们提供了一个与我们的Pointcept框架分离的PTv3独立实例。要将此代码整合到您的项目中,请克隆项目仓库并将以下文件/文件夹复制到您的项目中:
git clone https://github.com/Pointcept/PointTransformerV3.git cp model.py ${PATH_TO_YOUR_PROJECT} cp -r serialization ${PATH_TO_YOUR_PROJECT}
调整我们的模型文件中定义的输入字典,模型将返回给定批次点云的编码特征。
完整的PTv3依赖于Flash Attention,而Flash Attention依赖于CUDA 11.6及以上,请确保您的本地Pointcept环境满足这些要求。
如果您无法将本地环境升级以满足要求(CUDA >= 11.6),那么您可以通过将模型参数enable_flash设置为false并将enc_patch_size和dec_patch_size降低到一定水平(例如128)来禁用FlashAttention。
FlashAttention强制禁用RPE并强制将精度降低到fp16。如果您需要这些功能,请禁用enable_flash并调整enable_rpe、upcast_attention和upcast_softmax。
| 模型 | 基准测试 | 额外数据 | GPU数量 | 验证mIoU | 配置 | Tensorboard | 实验记录 |
|---|---|---|---|---|---|---|---|
| PTv3 | ScanNet | ✗ | 4 | 77.6% | 链接 | 链接 | 链接 |
| PTv3 + PPT | ScanNet | ✓ | 8 | 78.5% | 链接 | 链接 | 链接 |
| PTv3 | ScanNet200 | ✗ | 4 | 35.3% | 链接 | 链接 | 链接 |
| PTv3 + PPT | ScanNet200 | ✓ (f.t.) | 4 | ||||
| PTv3 | S3DIS (Area5) | ✗ | 4 | 73.6% | 链接 | 链接 | 链接 |
| PTv3 + PPT | S3DIS (Area5) | ✓ | 8 | 75.4% | 链接 | 链接 | 链接 |
| _*由于PTv3的模型结构进行了调整,已发布的模型权重暂时无效。_ |
以下是示例运行脚本:
# 从头训练ScanNet sh scripts/train.sh -g 4 -d scannet -c semseg-pt-v3m1-0-base -n semseg-pt-v3m1-0-base # PPT联合训练(ScanNet + Structured3D)并在ScanNet上评估 sh scripts/train.sh -g 8 -d scannet -c semseg-pt-v3m1-1-ppt-extreme -n semseg-pt-v3m1-1-ppt-extreme # 从头训练ScanNet200 sh scripts/train.sh -g 4 -d scannet200 -c semseg-pt-v3m1-0-base -n semseg-pt-v3m1-0-base # 从PPT联合训练(ScanNet + Structured3D)模型微调ScanNet200 # 待完成 # 从头训练S3DIS,S3DIS依赖RPE,同时也是禁用flash attention的示例 sh scripts/train.sh -g 4 -d s3dis -c semseg-pt-v3m1-0-rpe -n semseg-pt-v3m1-0-rpe # PPT联合训练(ScanNet + S3DIS + Structured3D)并在ScanNet上评估 sh scripts/train.sh -g 8 -d s3dis -c semseg-pt-v3m1-1-ppt-extreme -n semseg-pt-v3m1-1-ppt-extreme # 更多PTv3的配置和实验记录将很快推出。
| 模型 | 基准 | 额外数据 | GPU数量 | 验证集mIoU | 配置 | Tensorboard | 实验记录 |
|---|---|---|---|---|---|---|---|
| PTv3 | nuScenes | ✗ | 4 | 80.3 | 链接 | 链接 | 链接 |
| PTv3 + PPT | nuScenes | ✓ | 8 | ||||
| PTv3 | SemanticKITTI | ✗ | 4 | ||||
| PTv3 + PPT | SemanticKITTI | ✓ | 8 | ||||
| PTv3 | Waymo | ✗ | 4 | 71.2 | 链接 | 链接 | 链接 (仅日志) |
| PTv3 + PPT | Waymo | ✓ | 8 |
_*由于PTv3的模型结构进行了调整,已发布的模型权重暂时无效。_ _*由于Waymo开放数据集的规定,使用该数据集训练的模型权重无法公开发布。_
以下是示例运行脚本:
# 从头训练ScanNet sh scripts/train.sh -g 4 -d scannet -c semseg-pt-v3m1-0-base -n semseg-pt-v3m1-0-base # PPT联合训练(ScanNet + Structured3D)并在ScanNet上评估 sh scripts/train.sh -g 8 -d scannet -c semseg-pt-v3m1-1-ppt-extreme -n semseg-pt-v3m1-1-ppt-extreme # 从头训练ScanNet200 sh scripts/train.sh -g 4 -d scannet200 -c semseg-pt-v3m1-0-base -n semseg-pt-v3m1-0-base # 从PPT联合训练(ScanNet + Structured3D)模型微调ScanNet200 # 待完成 # 从头训练S3DIS,S3DIS依赖RPE,同时也是禁用flash attention的示例 sh scripts/train.sh -g 4 -d s3dis -c semseg-pt-v3m1-0-rpe -n semseg-pt-v3m1-0-rpe # PPT联合训练(ScanNet + S3DIS + Structured3D)并在ScanNet上评估 sh scripts/train.sh -g 8 -d s3dis -c semseg-pt-v3m1-1-ppt-extreme -n semseg-pt-v3m1-1-ppt-extreme # S3DIS 6折交叉验证 # 1. 默认配置在Area_5上评估,修改"data.train.split"、"data.val.split"和"data.test.split",使配置分别在Area_1 ~ Area_6上评估。 # 2. 在每个区域分割上训练和评估模型,并将位于"exp/s3dis/EXP_NAME/result/Area_x.pth"的结果文件收 集到一个文件夹中,记为RECORD_FOLDER。 # 3. 运行以下脚本获取S3DIS 6折交叉验证性能: export PYTHONPATH=./ python tools/test_s3dis_6fold.py --record_root ${RECORD_FOLDER} # 从头训练nuScenes sh scripts/train.sh -g 4 -d nuscenes -c semseg-pt-v3m1-0-base -n semseg-pt-v3m1-0-base # 从头训练Waymo sh scripts/train.sh -g 4 -d waymo -c semseg-pt-v3m1-0-base -n semseg-pt-v3m1-0-base # 更多PTv3的配置和实验记录将很快推出。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱 全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号