在计算机视觉领域,3D表示学习一直是一个充满挑战的研究方向。近年来,随着深度学习技术的发展,2D图像和文本的大规模表示学习取得了巨大的进展,但3D对象和场景的可扩展表示仍然相对未被充分探索。为了弥补这一差距,来自北京智源人工智能研究院(BAAI)、清华大学和北京大学的研究人员提出了Uni3D,这是一个统一的、可扩展的3D预训练框架,用于大规模3D表示学习。
Uni3D的核心思想是利用2D预训练模型的强大特征提取能力,将其迁移到3D领域。具体来说,Uni3D使用2D初始化的Vision Transformer(ViT)作为骨干网络,通过端到端预训练将3D点云特征与图像-文本对齐特征进行对齐。这种方法有以下几个关键优势:
充分利用了丰富的2D预训练模型作为初始化,避免了从头训练3D模型的高计算成本。
通过与图像-文本对齐模型作为目标进行对齐,使3D特征能够获得跨模态的语义理解能力。
简单的架构和预训练任务使得模型可以高效地扩展到十亿参数级别。

Uni3D的架构主要包含以下几个部分:
3D Tokenizer: 将输入的3D点云数据转换为token序列。
2D初始化的ViT: 使用在2D图像上预训练的ViT作为特征提取器的主干网络。
3D-特定层: 在ViT之上添加一些3D特定的层,以适应3D数据的特性。
对比学习头: 用于将3D特征与图像-文本对齐特征进行对齐。
在预训练过程中,Uni3D使用大规模的3D数据集进行训练,包括ShapeNet、ModelNet等。通过 对比学习,Uni3D学习到了丰富的3D表示,这些表示不仅包含了几何信息,还融合了语义理解。
研究人员将Uni3D成功扩展到了10亿参数级别,并在多个3D任务上取得了新的记录:
零样本分类: 在Objaverse-LVIS数据集上,Uni3D-G模型达到了55.3%的Top-1准确率。
少样本分类: 在ModelNet40数据集上,Uni3D-G模型达到了88.2%的Top-1准确率。
开放世界理解: Uni3D展示了优秀的跨域泛化能力,能够理解和分类未见过的3D对象。
部件分割: 在ShapeNetPart数据集上,Uni3D展示了出色的部件分割性能。
除了这些基准任务,Uni3D还支持多种有趣的应用:


为了推动3D表示学习领域的发展,研究团队决定开源Uni3D的相关资源:
研究团队希望通过开源促进社区协作,共同推动多模态智能的发展。他们鼓励研究者和开发者基于Uni3D进行进一步的探索和应用 开发。
Uni3D为大规模3D表示学习开辟了一条新的道路。未来的研究方向可能包括:
Uni3D的出现标志着3D视觉表示学习进入了一个新的阶段。它不仅提供了一个强大的预训练模型,更为未来的研究指明了方向。我们期待看到更多基于Uni3D的创新应用和突破性研究成果,推动3D视觉技术在各个领域的广泛应用。