ScanNet是由斯坦福大学、普林斯顿大学和慕尼黑工业大学的研究人员共同开发的大规模RGB-D视频数据集。它包含了超过1500个室内场景的250万个视图,每个视图都带有精确的3D相机姿态、表面重建和实例级语义分割标注。ScanNet的主要特点包括:
ScanNet的推出为3D计算机视觉和机器学习领域提供了一个重要的基准数据集,推动了3D场景理解、语义分割、目标检测等任务的研究进展。
ScanNet数据集按RGB-D序列组织。每个序列存储在名为scene<spaceId>_<scanId>的目录下,其中每个space对应一个唯一的位置(从0开始索引)。每个序列目录包含以下内容:
<scanId>.sens: RGB-D传感器流,包含彩色帧、深度帧、相机姿态等数据<scanId>_vh_clean.ply: 高质量重建网格<scanId>_vh_clean_2.ply: 用于语义标注的清理和简化网格<scanId>_vh_clean_2.0.010000.segs.json: 标注网格的过分割<scanId>.aggregation.json: 聚合的实例级语义标注<scanId>_vh_clean_2.labels.ply: 聚合语义分割的可视化<scanId>_2d-label.zip: 2D投影标签<scanId>_2d-instance.zip: 2D投影实例这种组织结构使得研究人员可以方便地访问和处理各种类型的数据,包括原始传感器数据、重建网格以及语义标注。

ScanNet使用多种数据格式来存储不同类型的信息:
重建表面网格文件(*.ply): 二进制PLY格式,+Z轴为竖直方向。
RGB-D传感器流(*.sens): 压缩二进制格式,包含每帧的颜色、深度、相机姿态等数据。
表面网格分割文件(*.segs.json): JSON格式,包含分割参数和每个顶点的分割索引。
聚合语义标注文件(*.aggregation.json): JSON格式,包含场景ID、分割组等信息。
2D标注投影: 将3D聚合标注投影到RGB-D帧中的2D图像。
这些多样化的数据格式为研究人员提供了丰富的信息,以支持各种3D视觉任务的研究和开发。
为了方便研究人员使用ScanNet数据集,项目提供了一系列工具:
ScanNet C++工具包: 用于处理ScanNet数据的工具,包括SensReader用于加载.sens数据。
相机参数估计代码: 用于估计相机参数和深度去畸变。
网格分割代码: 用于预处理网格并准备语义标注的超分割计算代码。
BundleFusion重建代码: ScanNet使用BundleFusion进行3D重建。
ScanNet扫描仪iPad应用: 用于使用带有Structure.io传感器的iPad轻松捕获RGB-D序列。
ScanNet扫描仪数据服务器: 接收来自iPad扫描应用的RGB-D序列的服务器代码。
ScanNet数据管理UI: 基于Web的数据管理界面,用于概览可用的扫描数据并控制处理和标注流程。
这些工具大大简化了数据的采集、处理和管理流程,使研究人员能够更加专注于算法的开发和实验。
ScanNet项目还提供了用于语义标注的Web界面。这些工具是SSTK(Semantic Scene Toolkit)库的一部分。研究人员 可以使用这些工具来创建和编辑3D场景的语义标注,从而不断扩充和改进数据集的质量。
ScanNet为多个3D场景理解任务提供了基准测试:
这些任务的训练/测试数据划分可在Tasks/Benchmark目录中找到。标签映射和预训练模型可随ScanNet数据一起下载。
这些基准测试为研究人员提供了一个统一的评估平台,便于比较不同算法的性能,推动了3D视觉领域的快速发展。
ScanNet任务数据发布中的标签映射文件(scannet-labels.combined.tsv)包含了ScanNet标注中提供的标签(id)到以下对象类别集的映射:
这种标签映射使得ScanNet能够与其他常用的3D数据集进行比较和集成,增强了数据集的通用性和实用性。
在ScanNet的基础上,研究人员最近推出了ScanNet++数据集。ScanNet++包含450多个3D室内场景,具有以下特点:
ScanNet++的3D重建带有长尾和标签模糊语义的标注,可用于基准测试语义理解方法。同时,耦合的DSLR和iPhone采集使其成为测试高质量和普通设置下新视图合成方法的理想平台。

ScanNet++的 推出进一步扩展了3D室内场景数据集的边界,为研究人员提供了更高质量、更多样化的数据,有望推动3D视觉技术向更高水平发展。
ScanNet数据集在计算机视觉和机器学习领域有广泛的应用,主要包括:
3D语义分割: 对3D场景中的每个点或体素进行语义标注。
3D实例分割: 不仅识别物体类别,还区分同类物体的不同实例。
3D物体检测: 在3D空间中定位和识别物体。
场景重建: 从RGB-D数据重建完整的3D场景。
新视角合成: 基于已有视角生成新的场景视角。
零样本学习: 识别训练集中未出现的物体类别。
持续学习: 在不忘记已学知识的前提下学习新知识。
这些应用涵盖了3D视觉的多个重要方向,ScanNet的出现大大推动了这些领域的研究进展。
要获取ScanNet数据,研究人员需要遵循以下步骤:
值得注意的是,ScanNet数据的使用受到一定的限制,仅允许用于非商业研究目的。使用ScanNet数据或代码时,请引用以下论文:
@inproceedings{dai2017scannet,
title={ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes},
author={Dai, Angela and Chang, Angel X. and Savva, Manolis and Halber, Maciej and Funkhouser, Thomas and Nie{
ss}ner, Matthias},
booktitle = {Proc. Computer Vision and Pattern Recognition (CVPR), IEEE},
year = {2017}
}
ScanNet作为一个大规模、高质量的3D室内场景数据集,为3D计算机视觉研究提供了 宝贵的资源。它不仅包含丰富的RGB-D数据和精确的3D重建,还提供了详细的语义标注和实例分割信息。ScanNet的多样性和规模使其成为开发和评估3D场景理解算法的理想平台。
随着ScanNet++的推出,研究人员现在有了更高质量、更多样化的数据来推动3D视觉技术的发展。这些数据集的持续改进和扩展,将为未来的智能系统在理解和交互3D环境方面铺平道路,有望在机器人、增强现实、自动驾驶等领域产生深远影响。
作为研究人员,充分利用ScanNet和ScanNet++这样的高质量数据集,结合最新的深度学习技术,将有助于突破3D视觉领域的前沿,开发出更智能、更可靠的3D场景理解系统。随着技术的不断进步,我们离实现真正的智能3D环境感知又近了一步。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的 、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号