
基于单一图像的快速3D重建技术 适用于 多种物体
splatter-image是一个3D重建开源项目,能从单一图像快速生成物体的3D模型。它兼容Objaverse、ShapeNet和CO3D等多个数据集,并提供在线演示。项目使用高斯点云渲染技术,在多类别ShapeNet数据集上表现出色。安装过程简单,支持多GPU训练,无需预处理相机姿态数据。
"Splatter Image: 超快单视图3D重建"(CVPR 2024)的官方实现
[2024年4月16日] 自首次发布以来,该项目有几个重大更新:
<img src="https://yellow-cdn.veclightyear.com/835a84d5/c97e44b0-669b-45a0-93df-3c8136226c93.png" alt="演示截图"/>
查看在线演示。在本地运行演示通常会更快,您还可以看到用高斯喷溅渲染的循环(而不是提取的.ply对象,后者可能会显示伪影)。要在本地运行演示,只需按照以下安装说明操作,然后调用:
python gradio_app.py
conda create --name splatter-image
conda activate splatter-image
按照官方说明安装Pytorch。经验证可用的Pytorch / Python / Pytorch3D组合是:
安装其 他要求:
pip install -r requirements.txt
安装高斯喷溅渲染器,即用于将高斯点云渲染为图像的库。为此,克隆高斯喷溅仓库,并在激活conda环境的情况下运行pip install submodules/diff-gaussian-rasterization。您需要满足硬件和软件要求。我们在NVIDIA A6000 GPU上进行了所有实验,并在NVIDIA V100 GPU上进行了速度测量。
如果您想在CO3D数据上进行训练,需要安装Pytorch3D 0.7.2。请参阅此处的说明。建议使用pip从预构建的二进制文件安装。在这里找到兼容的二进制文件,并使用pip安装。例如,对于Python 3.8, Pytorch 1.13.0, CUDA 11.6,运行
pip install --no-index --no-cache-dir pytorch3d -f https://anaconda.org/pytorch3d/pytorch3d/0.7.2/download/linux-64/pytorch3d-0.7.2-py38_cu116_pyt1130.tar.bz2。
要在ShapeNet-SRN类(汽车、椅子)上进行训练/评估,请从PixelNeRF数据文件夹下载srn_.zip(=cars或chairs)。解压数据文件,并在datasets/srn.py中将SHAPENET_DATASET_ROOT更改为解压文件夹的父文件夹。例如,如果您的文件夹结构是:/home/user/SRN/srn_cars/cars_train,在datasets/srn.py中设置SHAPENET_DATASET_ROOT="/home/user/SRN"。无需额外预处理。
要在CO3D上进行训练/评估,请从CO3D发布下载消防栓和泰迪熊类。运行以下命令:
git clone https://github.com/facebookresearch/co3d.git
cd co3d
mkdir DOWNLOAD_FOLDER
python ./co3d/download_dataset.py --download_folder DOWNLOAD_FOLDER --download_categories hydrant,teddybear
接下来,在data_preprocessing/preoprocess_co3d.py中将CO3D_RAW_ROOT设置为您的DOWNLOAD_FOLDER。将CO3D_OUT_ROOT设置为您想存储预处理数据的位置。运行
python -m data_preprocessing.preprocess_co3d
并设置CO3D_DATASET_ROOT:=CO3D_OUT_ROOT。
对于多类别ShapeNet,我们使用DVR作者托管的NMR的ShapeNet 64x64数据集,可以在这里下载。
解压文件夹,并将NMR_DATASET_ROOT设置为解压后包含子类别文件夹的目录。换句话说,NMR_DATASET_ROOT目录应包含文件夹02691156、02828884、02933112等。
要在Objaverse上进行训练,我们使用了Zero-1-to-3的渲染,可以用以下命令下载:
wget https://tri-ml-public.s3.amazonaws.com/datasets/views_release.tar.gz
免责声明:请注意,这些渲染是使用Objaverse生成的。渲染整体以ODC-By 1.0许可发布。个别对象渲染的许可与它们在Objaverse中的创意共享许可相同。
此外,请从模型仓库下载lvis-annotations-filtered.json。
这个json文件包含LVIS子集中对象ID的列表。这些资产质量更高。
在datasets/objaverse.py中将OBJAVERSE_ROOT设置为解压后渲染文件夹的目录, 并在同一文件中将OBJAVERSE_LVIS_ANNOTATION_PATH设置为下载的.json文件的目录。
请注意,Objaverse数据集仅用于训练和验证。它没有测试子集。
为了评估在Objaverse上训练的模型,我们使用Google扫描对象数据集以确保与训练集没有重叠。下载Free3D提供的渲染。解压下载的文件夹,并在datasets/gso.py中将GSO_ROOT设置为解压文件夹的目录。
请注意,Google扫描对象数据集不用于训练。它用于测试在Objaverse上训练的模型。
所有数据集的预训练模型现在可以通过Huggingface Models获取。如果你只想运行定性/定量评估,不需要手动下载它们,运行评估脚本时会自动使用(见下文)。
如果你希望手动下载,可以在Huggingface模型文件页面上手动点击下载按钮。同时下载配置文件,参见eval.py了解如何加载模型。
下载相关数据集后,可以通过以下命令运行评估:
python eval.py $dataset_name
$dataset_name是数据集的名称。我们支持:
gso(Google扫描物体),objaverse(Objaverse-LVIS),nmr(多类别ShapeNet),hydrants(CO3D消防栓),teddybears(CO3D泰迪熊),cars(ShapeNet汽车),chairs(ShapeNet椅子)。
代码会自动下载所请求数据集的相关模型。你也可以训练自己的模型并通过以下命令评估:
python eval.py $dataset_name --experiment_path $experiment_path
$experiment_path应包含model_latest.pth文件和一个.hydra文件夹,其中有config.yaml。
要在验证集上评估,请使用选项--split val。
要保存物体的渲染图,相机在循环中移动,请使用选项--split vis。使用此选项时不会返回定量分数,因为并非所有数据集都有真实图像。
你可以使用选项--save_vis设置要保存多少个物体的渲染图。
你可以使用选项--out_folder设置保存渲染图的位置。
单视图模型分两个阶段训练,首先不使用LPIPS(大部分训练),然后用LPIPS微调。
python train_network.py +dataset=$dataset_name
其中$dataset_name是[cars,chairs,hydrants,teddybears,nmr,objaverse]之一。
完成后,将输出目录路径放在configs/experiment/lpips_$experiment_name.yaml中的opt.pretrained_ckpt选项中(默认设置为null)。python train_network.py +dataset=$dataset_name +experiment=$lpips_experiment_name
使用哪个$lpips_experiment_name取决于数据集。
如果$dataset_name是[cars,hydrants,teddybears]中的一个,使用lpips_100k.yaml。
如果$dataset_name是chairs,使用lpips_200k.yaml。
如果$dataset_name是nmr,使用lpips_nmr.yaml。
如果$dataset_name是objaverse,使用lpips_objaverse.yaml。
记得在启动第二阶段之前,将第一阶段模型的目录放在适当的.yaml文件中。要训练2视图模型,运行:
python train_network.py +dataset=cars cam_embd=pose_pos data.input_images=2 opt.imgs_per_obj=5
训练循环在train_network.py中实现,评估代码在eval.py中。数据集在datasets/srn.py和datasets/co3d.py中实现。模型在scene/gaussian_predictor.py中实现。渲染器的调用可以在gaussian_renderer/__init__.py中找到。
高斯光栅化器假设刚体变换矩阵是行主序,即位置向量是行向量。它还要求相机采用COLMAP / OpenCV约定,即x指向右,y指向下,z指向远离相机(前方)。
@inproceedings{szymanowicz24splatter,
title={Splatter Image: Ultra-Fast Single-View 3D Reconstruction},
author={Stanislaw Szymanowicz and Christian Rupprecht and Andrea Vedaldi},
year={2024},
booktitle={The IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
}
S. Szymanowicz得到EPSRC博士培训合作奖学金(DTP) EP/R513295/1和Oxford-Ashton奖学金的支持。 A. Vedaldi得到ERC-CoG UNION 101001212的支持。 我们感谢Eldar Insafutdinov在安装要求方面的帮助。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。


AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号