Grounded-SAM-2

Grounded-SAM-2

多模态视频目标检测与分割框架

Grounded-SAM-2是一个开源项目,结合Grounding DINO和SAM 2技术,实现图像和视频中的目标检测、分割和跟踪。该项目支持自定义视频输入和多种提示类型,适用于广泛的视觉任务。通过简化代码实现和提供详细文档,Grounded-SAM-2提高了易用性。项目展示了开放世界模型在处理复杂视觉任务中的潜力,为研究人员和开发者提供了强大的工具。

SAM 2Grounding DINO目标检测视频追踪图像分割Github开源项目

Grounded SAM 2

Grounded SAM 2:使用Grounding DINOGrounding DINO 1.5SAM 2在视频中检测和跟踪任何物体。

🔥 项目亮点

在本仓库中,我们通过简单的实现支持了以下演示:

  • 使用Grounding DINO、Grounding DINO 1.5 & 1.6和SAM 2进行检测和分割任何物体
  • 使用Grounding DINO、Grounding DINO 1.5 & 1.6和SAM 2进行检测和跟踪任何物体
  • 基于强大的supervision库进行检测、分割和跟踪可视化

Grounded SAM: 组装开放世界模型以应对多样化视觉任务相比,Grounded SAM 2在方法上没有引入重大变化。两种方法都利用了开放世界模型的能力来解决复杂的视觉任务。因此,我们尝试在这个仓库中简化代码实现,旨在提高用户便利性。

新闻

  • 2024/08/09: 支持在整个视频中检测和跟踪新物体。该功能目前仍在开发中。感谢Shuo Shen的贡献。
  • 2024/08/07: 支持自定义视频输入,用户只需提交他们的视频文件(例如mp4文件)和特定的文本提示即可获得令人印象深刻的演示视频。

目录

安装

下载预训练的SAM 2检查点:

cd checkpoints bash download_ckpts.sh

下载预训练的Grounding DINO检查点:

cd gdino_checkpoints bash download_ckpts.sh

不使用docker的安装

首先安装PyTorch环境。我们在环境中使用python=3.10,以及torch >= 2.3.1torchvision>=0.18.1cuda-12.1来运行这个演示。请按照这里的说明安装PyTorch和TorchVision依赖项。强烈建议安装支持CUDA的PyTorch和TorchVision。你可以使用以下命令轻松安装最新版本的PyTorch:

pip3 install torch torchvision torchaudio

由于我们需要CUDA编译环境来编译Grounding DINO中使用的Deformable Attention算子,我们需要检查CUDA环境变量是否已正确设置(你可以参考Grounding DINO安装了解更多细节)。如果你想为Grounding DINO构建本地GPU环境以运行Grounded SAM 2,可以手动设置环境变量如下:

export CUDA_HOME=/path/to/cuda-12.1/

安装Segment Anything 2

pip install -e .

安装Grounding DINO

pip install --no-build-isolation -e grounding_dino

使用docker的安装

构建Docker镜像并运行Docker容器:

cd Grounded-SAM-2
make build-image
make run

执行这些命令后,你将进入Docker环境。容器内的工作目录设置为:/home/appuser/Grounded-SAM-2

进入Docker环境后,你可以通过运行以下命令启动演示:

python grounded_sam2_tracking_demo.py

Grounded SAM 2演示

使用Grounding DINO的Grounded SAM 2图像演示

请注意,Grounding DINO已经在Huggingface上得到支持,因此我们提供了两种运行Grounded SAM 2模型的选择:

  • 使用huggingface API进行Grounding DINO推理(简单明了)
python grounded_sam2_hf_model_demo.py

[!注意] 🚨 如果在使用HuggingFace模型时遇到网络问题,你可以通过设置适当的镜像源来解决:export HF_ENDPOINT=https://hf-mirror.com

  • 加载本地预训练的Grounding DINO检查点,并使用Grounding DINO原始API进行推理(确保你已经下载了预训练检查点)
python grounded_sam2_local_demo.py

使用Grounding DINO 1.5 & 1.6的Grounded SAM 2图像演示

我们已经发布了我们最强大的开放集检测模型Grounding DINO 1.5 & 1.6,它可以与SAM 2结合使用,以获得更强大的开放集检测和分割能力。你可以先申请API令牌,然后按如下方式运行使用Grounding DINO 1.5的Grounded SAM 2:

安装最新的DDS cloudapi:

pip install dds-cloudapi-sdk

从我们的官方网站申请你的API令牌:申请API令牌

python grounded_sam2_gd1.5_demo.py

Grounded SAM 2视频对象跟踪演示

基于SAM 2强大的跟踪能力,我们可以将其与Grounding DINO结合,实现开放集对象分割和跟踪。你可以运行以下脚本来获得使用Grounded SAM 2的跟踪结果:

python grounded_sam2_tracking_demo.py
  • 每一帧的跟踪结果将保存在./tracking_results
  • 视频将保存为children_tracking_demo_video.mp4
  • 你可以自行修改此文件,使用不同的文本提示和视频片段来获得更多跟踪结果
  • 为了简单起见,我们这里只对第一个视频帧使用Grounding DINO进行提示

支持各种跟踪提示类型

我们为Grounded SAM 2跟踪演示支持了不同类型的提示:

  • 点提示:为了获得稳定的分割结果,我们重新使用SAM 2图像预测器基于Grounding DINO的框输出获取每个对象的预测掩码,然后我们从预测掩码中均匀采样点作为SAM 2视频预测器的点提示
  • 框提示:我们直接使用Grounding DINO的框输出作为SAM 2视频预测器的框提示
  • 掩码提示:我们使用基于Grounding DINO框输出的SAM 2掩码预测结果作为SAM 2视频预测器的掩码提示

使用Grounding DINO 1.5 & 1.6的Grounded SAM 2视频对象跟踪演示

我们还基于更强大的Grounding DINO 1.5模型和SAM 2支持了视频对象跟踪演示,在申请运行Grounding DINO 1.5的API密钥后,你可以尝试以下演示:

python grounded_sam2_tracking_demo_with_gd1.5.py

使用Grounding DINO的Grounded SAM 2自定义视频输入的视频对象跟踪演示

用户可以上传自己的视频文件(例如 assets/hippopotamus.mp4)并指定自定义文本提示,使用以下脚本通过 Grounding DINO 和 SAM 2 进行定位和跟踪:

python grounded_sam2_tracking_demo_custom_video_input_gd1.0_hf_model.py

使用自定义视频输入的 Grounded SAM 2 视频对象跟踪演示(使用 Grounding DINO 1.5 和 1.6)

用户可以上传自己的视频文件(例如 assets/hippopotamus.mp4)并指定自定义文本提示,使用以下脚本通过 Grounding DINO 1.5 和 SAM 2 进行定位和跟踪:

python grounded_sam2_tracking_demo_custom_video_input_gd1.5.py

你可以在此文件中指定参数:

VIDEO_PATH = "./assets/hippopotamus.mp4" TEXT_PROMPT = "hippopotamus." OUTPUT_VIDEO_PATH = "./hippopotamus_tracking_demo.mp4" API_TOKEN_FOR_GD1_5 = "你的API令牌" # G-DINO 1.5 的 API 令牌 PROMPT_TYPE_FOR_VIDEO = "mask" # 使用 SAM 2 掩码预测作为视频预测器的提示

运行我们的演示代码后,你可以获得如下跟踪结果:

[视频名称]

我们将自动将跟踪可视化结果保存在 OUTPUT_VIDEO_PATH 中。

[!警告] 我们在输入视频的第一帧初始化框提示。如果你想从不同的帧开始,可以在我们的代码中自行修改 ann_frame_idx

具有连续 ID 的 Grounded-SAM-2 视频对象跟踪(使用 Grounding DINO)

在上述演示中,我们仅在特定帧中提示 Grounded SAM 2,这可能不利于在整个视频中发现新对象。在这个演示中,我们尝试发现新对象并在整个视频中为它们分配新的 ID,这个功能仍在开发中,目前还不太稳定。

用户可以上传自己的视频文件并指定自定义文本提示,使用 Grounding DINO 和 SAM 2 框架进行定位和跟踪。执行以下脚本:

python grounded_sam2_tracking_demo_with_continuous_id.py

你可以自定义各种参数,包括:

  • text:定位文本提示。
  • video_dir:包含视频文件的目录。
  • output_dir:保存处理后输出的目录。
  • output_video_path:输出视频的路径。
  • step:处理的帧步长。
  • box_threshold:groundingdino 模型的框阈值
  • text_threshold:groundingdino 模型的文本阈值 注意:此方法仅支持掩码类型的文本提示。

运行我们的演示代码后,你可以获得如下跟踪结果:

[视频名称]

如果你想尝试 Grounding DINO 1.5 模型,可以在设置好 API 令牌后运行以下脚本:

python grounded_sam2_tracking_demo_with_continuous_id_gd1.5.py

引用

如果你发现这个项目对你的研究有帮助,请考虑引用以下 BibTeX 条目。

[BibTeX 引用内容]

编辑推荐精选

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

下拉加载更多