Open3D-ML

Open3D-ML

Open3D 的扩展,用于处理 3D 机器学习任务

Open3D-ML基于Open3D库,扩展了3D机器学习工具,支持语义点云分割和目标检测等应用。提供预训练模型和训练管道,兼容TensorFlow和PyTorch框架,易于集成到现有项目中。同时,提供数据可视化等通用功能,覆盖多种数据集和算法,提高3D数据处理效率和效果。

Open3D-ML3D机器学习TensorFlowPyTorch语义分割Github开源项目

Open3D-ML 项目介绍

Open3D-ML 是 Open3D 专门为 3D 机器学习任务开发的一个扩展库。它在 Open3D 核心库之上,增加了用于 3D 数据处理的机器学习工具。该项目主要关注语义点云分割等应用,同时提供预训练模型,可以用于常见任务,并包含训练的操作流程。Open3D-ML 支持 TensorFlow 和 PyTorch,以便与现有项目轻松整合,并且提供了与机器学习框架无关的数据可视化功能。

安装

用户指南

Open3D-ML 已集成在 Open3D v0.11+ 的 Python 分发版中,并与以下版本的机器学习框架兼容:

  • PyTorch 2.0.*
  • TensorFlow 2.13.*(macOS,Linux 见下文)
  • CUDA 10.1, 11.*(在 GNU/Linux x86_64 平台上可选)

使用以下命令可以安装 Open3D:

# 确保 pip 是最新版本 pip install --upgrade pip # 安装 open3d pip install open3d

也可以根据需要使用以下命令安装与之配套的 PyTorch 或 TensorFlow:

# 安装配套版本的 TensorFlow pip install -r requirements-tensorflow.txt # 安装配套版本的 PyTorch pip install -r requirements-torch.txt

通过以下命令测试安装是否成功:

# 使用 PyTorch $ python -c "import open3d.ml.torch as ml3d" # 使用 TensorFlow $ python -c "import open3d.ml.tf as ml3d"

对于需要使用不同版本的机器学习框架或 CUDA 的情况,推荐从源码构建 Open3D,或者在 Docker 中构建 Open3D。

开始使用

读取数据集

Open3D-ML 提供了读取常见数据集的类。以下示例展示了如何读取 SemanticKITTI 数据集并进行可视化:

import open3d.ml.torch as ml3d # 或者使用 open3d.ml.tf dataset = ml3d.datasets.SemanticKITTI(dataset_path='/path/to/SemanticKITTI/') all_split = dataset.get_split('all') print(all_split.get_attr(0)) print(all_split.get_data(0)['point'].shape) vis = ml3d.vis.Visualizer() vis.visualize_dataset(dataset, 'all', indices=range(100))

加载配置文件

模型、数据集和流程的配置存储在 ml3d/configs 目录中。用户还可以通过创建自己的 yaml 文件来记录自定义配置。以下为加载和构建配置的示例:

import open3d.ml as _ml3d import open3d.ml.torch as ml3d # 或者使用 open3d.ml.tf as ml3d cfg_file = "ml3d/configs/randlanet_semantickitti.yml" cfg = _ml3d.utils.Config.load_from_file(cfg_file) Pipeline = _ml3d.utils.get_module("pipeline", cfg.pipeline.name, framework) Model = _ml3d.utils.get_module("model", cfg.model.name, framework) Dataset = _ml3d.utils.get_module("dataset", cfg.dataset.name) cfg.dataset['dataset_path'] = "/path/to/your/dataset" dataset = Dataset(cfg.dataset.pop('dataset_path', None), **cfg.dataset) model = Model(**cfg.model) pipeline = Pipeline(model, dataset, **cfg.pipeline)

语义分割

使用预训练模型进行语义分割

在之前的基础上,可以使用一个预训练模型进行语义分割,并在数据集中的点云上运行模型。以下是怎么样实例化一个预训练模型以及在点云上运行的示例:

import os import open3d.ml as _ml3d import open3d.ml.torch as ml3d cfg_file = "ml3d/configs/randlanet_semantickitti.yml" cfg = _ml3d.utils.Config.load_from_file(cfg_file) model = ml3d.models.RandLANet(**cfg.model) cfg.dataset['dataset_path'] = "/path/to/your/dataset" dataset = ml3d.datasets.SemanticKITTI(cfg.dataset.pop('dataset_path', None), **cfg.dataset) pipeline = ml3d.pipelines.SemanticSegmentation(model, dataset=dataset, device="gpu", **cfg.pipeline) # 下载模型权重 ckpt_folder = "./logs/" os.makedirs(ckpt_folder, exist_ok=True) ckpt_path = ckpt_folder + "randlanet_semantickitti_202201071330utc.pth" randlanet_url = "https://storage.googleapis.com/open3d-releases/model-zoo/randlanet_semantickitti_202201071330utc.pth" if not os.path.exists(ckpt_path): cmd = "wget {} -O {}".format(randlanet_url, ckpt_path) os.system(cmd) # 加载参数 pipeline.load_ckpt(ckpt_path=ckpt_path) test_split = dataset.get_split("test") data = test_split.get_data(0) # 在单个示例上进行推断 result = pipeline.run_inference(data) # 在测试集上评估性能 pipeline.run_test()

训练模型进行语义分割

与推断类似,Open3D-ML 提供了在数据集上训练模型的接口:

dataset = ml3d.datasets.SemanticKITTI(dataset_path='/path/to/SemanticKITTI/', use_cache=True) model = RandLANet() pipeline = SemanticSegmentation(model=model, dataset=dataset, max_epoch=100) # 在控制台中打印训练进度。 pipeline.run_train()

3D 目标检测

使用预训练模型进行 3D 目标检测

3D 目标检测模型与语义分割模型类似,可以通过实例化一个预训练模型来进行目标检测。以下为示例代码:

import os import open3d.ml as _ml3d import open3d.ml.torch as ml3d cfg_file = "ml3d/configs/pointpillars_kitti.yml" cfg = _ml3d.utils.Config.load_from_file(cfg_file) model = ml3d.models.PointPillars(**cfg.model) cfg.dataset['dataset_path'] = "/path/to/your/dataset" dataset = ml3d.datasets.KITTI(cfg.dataset.pop('dataset_path', None), **cfg.dataset) pipeline = ml3d.pipelines.ObjectDetection(model, dataset=dataset, device="gpu", **cfg.pipeline) # 下载模型权重 ckpt_folder = "./logs/" os.makedirs(ckpt_folder, exist_ok=True) ckpt_path = ckpt_folder + "pointpillars_kitti_202012221652utc.pth" pointpillar_url = "https://storage.googleapis.com/open3d-releases/model-zoo/pointpillars_kitti_202012221652utc.pth" if not os.path.exists(ckpt_path): cmd = "wget {} -O {}".format(pointpillar_url, ckpt_path) os.system(cmd) # 加载参数 pipeline.load_ckpt(ckpt_path=ckpt_path) test_split = dataset.get_split("test") data = test_split.get_data(0) # 在单个示例上进行推断 result = pipeline.run_inference(data) # 在测试集上评估性能 pipeline.run_test()

训练模型进行 3D 目标检测

除了推断,Open3D-ML 还允许用户训练 3D 目标检测模型:

dataset = ml3d.datasets.KITTI(dataset_path='/path/to/KITTI/', use_cache=True) model = PointPillars() pipeline = ObjectDetection(model=model, dataset=dataset, max_epoch=100) # 打印训练进度 pipeline.run_train()

使用预定义脚本

Open3D-ML 提供的 scripts/run_pipeline.py 脚本为在数据集上训练和评估模型提供了简化的界面。具体命令如下:

python scripts/run_pipeline.py {tf/torch} -c <path-to-config> --pipeline {SemanticSegmentation/ObjectDetection} --<extra args>

脚本适用于语义分割和目标检测任务。脚本中 pipeline 参数必须指定为 SemanticSegmentation 或 ObjectDetection。

项目结构

Open3D-ML 的核心模块在 ml3d 子目录下,已经整合在 Open3D 中的 ml 命名空间中。除此之外,目录中还包含 examplesscripts,为用户提供了入门脚本及示例程序:

├─ docs # 文档相关的 Markdown 和 rst 文件 ├─ examples # 示例脚本和 notebooks ├─ ml3d # 包含主要的实现,集成在 open3d 中 ├─ configs # 相关配置文件 ├─ datasets # 通用数据集代码 ├─ metrics # 评估模型效果的指标 ├─ utils # 与框架无关的工具 ├─ vis # 视觉化函数 ├─ tf # TensorFlow 的代码实现 ├─ torch # PyTorch 的代码实现,细分为数据加载器、模型、模块、流程和工具 ├─ scripts # 示例训练脚本与数据集下载脚本

任务与算法

Open3D-ML 主要处理的任务包括语义分割和目标检测,其提供的模型及性能经过广泛测试。

数据集

Open3D-ML 的代码库支持多种常见数据集的读取,如 SemanticKITTI、Toronto 3D、Semantic 3D、S3DIS 等。

如何使用

项目文档提供了一系列指南,帮助用户在 Open3D-ML 中进行数据可视化、添加新模型、新数据集以及进行分布式训练等操作。

参与贡献

参与 Open3D-ML 项目有多种方式:实现新模型、提供新数据集的读取代码、分享现有模型的参数和权重、报告问题和错误等等。Open3D-ML 鼓励并欢迎社区的积极参与。如果有兴趣分享自己训练的模型权重,可以在拉取请求中附上或链接权重文件。

交流渠道

  • 论坛和在线聊天:用户和开发者可通过论坛与 Discord 等渠道进行讨论和互动。

引用

如果您在研究中使用了 Open3D,请在文末清单中注明引用。

编辑推荐精选

GPT Image 2中文站

GPT Image 2中文站

AI 图片生成平台

GPT Image 2 是面向用户的 AI 图片生成平台,支持文生图、图生图及多模型创意工作流。

Nano Banana Pro 中文站

Nano Banana Pro 中文站

AI 图片生成工具

输入简单文字,生成想要的图片。支持Nano Banana/gptimage-2等最新模型。

Vecbase

Vecbase

你的AI Agent团队

Vecbase 是专为 AI 团队打造的智能工作空间,将数据管理、模型协作与知识沉淀整合于一处。算法、产品与业务在同一平台无缝协同,让从数据到 AI 应用的落地更快一步。

音述AI

音述AI

全球首个AI音乐社区

音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。

QoderWork

QoderWork

阿里Qoder团队推出的桌面端AI智能体

QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。

lynote.ai

lynote.ai

一站式搞定所有学习需求

不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。

AniShort

AniShort

为AI短剧协作而生

专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。

seedancetwo2.0

seedancetwo2.0

能听懂你表达的视频模型

Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。

nano-banana纳米香蕉中文站

nano-banana纳米香蕉中文站

国内直接访问,限时3折

输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

下拉加载更多