GroundingDINO

GroundingDINO

语言驱动的开放集目标检测模型

GroundingDINO是一个基于语言的开放集目标检测模型,能够检测图像中的任意物体。该模型在COCO数据集上实现了零样本52.5 AP和微调后63.0 AP的性能。GroundingDINO支持CPU模式,可与Stable Diffusion等模型集成用于图像编辑,还能与SAM结合实现分割功能。此外,项目提供了丰富的演示和教程资源,为开放世界目标检测领域带来了新的解决方案。

Grounding DINO目标检测开放集检测语言指导计算机视觉Github开源项目
<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/854963dd-0bf6-4670-8517-1c63e1937fd0.png" width="30%"> </div>

:sauropod: Grounding DINO

PWC PWC
PWC PWC

IDEA-CVR, IDEA-Research

Shilong LiuZhaoyang ZengTianhe RenFeng LiHao ZhangJie YangChunyuan LiJianwei YangHang SuJun ZhuLei Zhang<sup>:email:</sup>

[论文] [演示] [引用]

Grounding DINO的PyTorch实现和预训练模型。详情请参阅论文**Grounding DINO: 将DINO与基于地面真实标注的预训练结合用于开放集目标检测**。

:sun_with_face: 有用的教程

:sparkles: 亮点项目

:bulb: 亮点

  • 开放集检测。 用语言检测一切
  • 高性能。 COCO零样本52.5 AP(无COCO数据训练!)。COCO微调63.0 AP
  • 灵活。 与Stable Diffusion合作进行图像编辑。

:fire: 新闻

  • 2023/07/18: 我们发布了 Semantic-SAM,这是一个通用图像分割模型,能够以任何所需粒度对任何物体进行分割和识别。代码检查点现已可用!
  • 2023/06/17: 我们提供了一个示例来评估 Grounding DINO 在 COCO 零样本性能上的表现。
  • 2023/04/15: 对于那些对开放集识别感兴趣的人,请参考 CV in the Wild Readings
  • 2023/04/08: 我们发布了 演示,将 Grounding DINOGLIGEN 结合,实现更可控的图像编辑。
  • 2023/04/08: 我们发布了 演示,将 Grounding DINOStable Diffusion 结合用于图像编辑。
  • 2023/04/06: 我们将 GroundingDINO 与 Segment-Anything 结合,建立了一个名为 Grounded-Segment-Anything 的新演示,旨在支持 GroundingDINO 中的分割功能。
  • 2023/03/28: 关于 Grounding DINO 和基础目标检测提示工程的 YouTube 视频。[SkalskiP]
  • 2023/03/28: 在 Hugging Face Space 上添加了一个 演示
  • 2023/03/27: 支持仅 CPU 模式。现在模型可以在没有 GPU 的机器上运行。
  • 2023/03/25: Grounding DINO 的 演示 在 Colab 上可用。[SkalskiP]
  • 2023/03/22: 代码现已可用!
<details open> <summary><font size="4"> 描述 </font></summary> <a href="https://arxiv.org/abs/2303.05499">论文</a>介绍。 <img src="https://yellow-cdn.veclightyear.com/835a84d5/703dfa1b-a63c-4f75-8299-f1a9512a3b51.png" alt="ODinW" width="100%"> 结合 <a href="https://github.com/IDEA-Research/GroundingDINO">Grounding DINO</a> 和 <a href="https://github.com/gligen/GLIGEN">GLIGEN</a> <img src="https://yellow-cdn.veclightyear.com/835a84d5/e30f8646-b99d-43af-943d-2334787199f9.png" alt="gd_gligen" width="100%"> </details>

:star: Grounding DINO 输入和输出的解释/提示

  • Grounding DINO 接受一对(图像, 文本)作为输入。
  • 它输出900个(默认情况下)目标框。每个框都有跨所有输入词的相似度分数。(如下图所示)
  • 我们默认选择最高相似度高于box_threshold的框。
  • 我们提取相似度高于text_threshold的词作为预测标签。
  • 如果你想获取特定短语的对象,比如句子two dogs with a stick.中的dogs,你可以选择与dogs文本相似度最高的框作为最终输出。
  • 注意,每个词可能会被不同的分词器拆分为多个标记。句子中的词数可能不等于文本标记的数量。
  • 我们建议在 Grounding DINO 中用.分隔不同的类别名称。 model_explain1 model_explain2

:label: 待办事项

  • 发布推理代码和演示。
  • 发布检查点。
  • Grounding DINO 与 Stable Diffusion 和 GLIGEN 的演示。
  • 发布训练代码。

:hammer_and_wrench: 安装

注意:

  1. 如果你有 CUDA 环境,请确保环境变量 CUDA_HOME 已设置。如果没有可用的 CUDA,将在仅 CPU 模式下编译。

请确保严格按照安装步骤进行,否则程序可能会产生:

NameError: name '_C' is not defined

如果发生这种情况,请重新克隆 git 并重新安装 groundingDINO,再次执行所有安装步骤。

如何检查 cuda:

echo $CUDA_HOME

如果没有输出,则表示你还没有设置路径。

运行以下命令,使环境变量在当前 shell 中设置:

export CUDA_HOME=/path/to/cuda-11.3

注意 cuda 的版本应与你的 CUDA 运行时一致,因为可能同时存在多个 cuda 版本。

如果你想永久设置 CUDA_HOME,使用以下命令:

echo 'export CUDA_HOME=/path/to/cuda' >> ~/.bashrc

然后,source bashrc 文件并检查 CUDA_HOME:

source ~/.bashrc echo $CUDA_HOME

在这个例子中,/path/to/cuda-11.3 应替换为你安装 CUDA 工具包的路径。你可以在终端中输入 which nvcc 来找到这个路径:

例如, 如果输出是 /usr/local/cuda/bin/nvcc,那么:

export CUDA_HOME=/usr/local/cuda

安装:

1.从 GitHub 克隆 GroundingDINO 仓库。

git clone https://github.com/IDEA-Research/GroundingDINO.git
  1. 切换到 GroundingDINO 文件夹。
cd GroundingDINO/
  1. 在当前目录安装所需依赖。
pip install -e .
  1. 下载预训练模型权重。
mkdir weights cd weights wget -q https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth cd ..

:arrow_forward: 演示

检查你的 GPU ID(仅当你使用 GPU 时)

nvidia-smi

在以下命令中,将 {GPU ID}image_you_want_to_detect.jpg"dir you want to save the output" 替换为适当的值

CUDA_VISIBLE_DEVICES={GPU ID} python demo/inference_on_a_image.py \ -c groundingdino/config/GroundingDINO_SwinT_OGC.py \ -p weights/groundingdino_swint_ogc.pth \ -i image_you_want_to_detect.jpg \ -o "dir you want to save the output" \ -t "chair" [--cpu-only] # 在 cpu 模式下打开它

如果你想指定要检测的短语,这里有一个演示:

CUDA_VISIBLE_DEVICES={GPU ID} python demo/inference_on_a_image.py \ -c groundingdino/config/GroundingDINO_SwinT_OGC.py \ -p ./groundingdino_swint_ogc.pth \ -i .asset/cat_dog.jpeg \ -o logs/1111 \ -t "There is a cat and a dog in the image ." \ --token_spans "[[[9, 10], [11, 14]], [[19, 20], [21, 24]]]" [--cpu-only] # 在 cpu 模式下打开它

token_spans 指定短语的起始和结束位置。例如,第一个短语是 [[9, 10], [11, 14]]"There is a cat and a dog in the image ."[9:10] = 'a'"There is a cat and a dog in the image ."[11:14] = 'cat'。因此它指的是短语 a cat。同样,[[19, 20], [21, 24]] 指的是短语 a dog

更多详情请参见 demo/inference_on_a_image.py

使用 Python 运行:

from groundingdino.util.inference import load_model, load_image, predict, annotate import cv2 model = load_model("groundingdino/config/GroundingDINO_SwinT_OGC.py", "weights/groundingdino_swint_ogc.pth") IMAGE_PATH = "weights/dog-3.jpeg" TEXT_PROMPT = "chair . person . dog ." BOX_TRESHOLD = 0.35 TEXT_TRESHOLD = 0.25 image_source, image = load_image(IMAGE_PATH) boxes, logits, phrases = predict( model=model, image=image, caption=TEXT_PROMPT, box_threshold=BOX_TRESHOLD, text_threshold=TEXT_TRESHOLD ) annotated_frame = annotate(image_source=image_source, boxes=boxes, logits=logits, phrases=phrases) cv2.imwrite("annotated_image.jpg", annotated_frame)

Web UI

我们还提供了一个演示代码,将 Grounding DINO 与 Gradio Web UI 集成。更多详情请参见文件 demo/gradio_app.py

笔记本

COCO 零样本评估

我们提供了一个示例来评估 Grounding DINO 在 COCO 上的零样本性能。结果应该是 48.5

CUDA_VISIBLE_DEVICES=0 \ python demo/test_ap_on_coco.py \ -c groundingdino/config/GroundingDINO_SwinT_OGC.py \ -p weights/groundingdino_swint_ogc.pth \ --anno_path /path/to/annoataions/ie/instances_val2017.json \ --image_dir /path/to/imagedir/ie/val2017

:luggage: 检查点

<!-- 插入表格 --> <table> <thead> <tr style="text-align: right;"> <th></th> <th>名称</th> <th>骨干网络</th> <th>数据</th> <th>COCO数据集上的边界框AP</th> <th>检查点</th> <th>配置</th> </tr> </thead> <tbody> <tr> <th>1</th> <td>GroundingDINO-T</td> <td>Swin-T</td> <td>O365,GoldG,Cap4M</td> <td>48.4(零样本)/ 57.2(微调)</td> <td><a href="https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth">GitHub链接</a> | <a href="https://huggingface.co/ShilongLiu/GroundingDINO/resolve/main/groundingdino_swint_ogc.pth">HF链接</a></td> <td><a href="https://github.com/IDEA-Research/GroundingDINO/blob/main/groundingdino/config/GroundingDINO_SwinT_OGC.py">链接</a></td> </tr> <tr> <th>2</th> <td>GroundingDINO-B</td> <td>Swin-B</td> <td>COCO,O365,GoldG,Cap4M,OpenImage,ODinW-35,RefCOCO</td> <td>56.7</td> <td><a href="https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha2/groundingdino_swinb_cogcoor.pth">GitHub链接</a> | <a href="https://huggingface.co/ShilongLiu/GroundingDINO/resolve/main/groundingdino_swinb_cogcoor.pth">HF链接</a> <td><a href="https://github.com/IDEA-Research/GroundingDINO/blob/main/groundingdino/config/GroundingDINO_SwinB_cfg.py">链接</a></td> </tr> </tbody> </table>

:medal_military: 结果

<details open> <summary><font size="4"> COCO目标检测结果 </font></summary> <img src="https://yellow-cdn.veclightyear.com/835a84d5/a3f949bf-3819-4685-86ed-3da77b6b480c.png" alt="COCO" width="100%"> </details> <details open> <summary><font size="4"> ODinW目标检测结果 </font></summary> <img src="https://yellow-cdn.veclightyear.com/835a84d5/40e7b73b-4cd3-446d-bd8a-71aba9652349.png" alt="ODinW" width="100%"> </details> <details open> <summary><font size="4"> 将Grounding DINO与<a href="https://github.com/Stability-AI/StableDiffusion">Stable Diffusion</a>结合用于图像编辑 </font></summary> 查看我们的示例<a href="https://github.com/IDEA-Research/GroundingDINO/blob/main/demo/image_editing_with_groundingdino_stablediffusion.ipynb">笔记本</a>以获取更多详细信息。 <img src="https://yellow-cdn.veclightyear.com/835a84d5/5e5bcf26-d367-485d-83b9-814e82b00adb.png" alt="GD_SD" width="100%"> </details> <details open> <summary><font size="4"> 将Grounding DINO与<a href="https://github.com/gligen/GLIGEN">GLIGEN</a>结合用于更详细的图像编辑 </font></summary> 查看我们的示例<a href="https://github.com/IDEA-Research/GroundingDINO/blob/main/demo/image_editing_with_groundingdino_gligen.ipynb">笔记本</a>以获取更多详细信息。 <img src="https://yellow-cdn.veclightyear.com/835a84d5/d202e1a0-eac5-4ca0-9402-07fb5c4e2705.png" alt="GD_GLIGEN" width="100%"> </details>

:sauropod: 模型:Grounding DINO

包括:文本骨干网络、图像骨干网络、特征增强器、语言引导的查询选择和跨模态解码器。

架构

:hearts: 致谢

我们的模型与DINOGLIP有关。感谢他们的出色工作!

我们还要感谢以下优秀的前期工作,包括DETR、Deformable DETR、SMCA、Conditional DETR、Anchor DETR、Dynamic DETR、DAB-DETR、DN-DETR等。更多相关工作可在Awesome Detection Transformer中找到。另外还有一个新的工具箱detrex可供使用。

感谢Stable DiffusionGLIGEN提供的出色模型。

:black_nib: 引用

如果您认为我们的工作对您的研究有帮助,请考虑引用以下BibTeX条目。

@article{liu2023grounding, title={Grounding dino: Marrying dino with grounded pre-training for open-set object detection}, author={Liu, Shilong and Zeng, Zhaoyang and Ren, Tianhe and Li, Feng and Zhang, Hao and Yang, Jie and Li, Chunyuan and Yang, Jianwei and Su, Hang and Zhu, Jun and others}, journal={arXiv preprint arXiv:2303.05499}, year={2023} }

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多