结合视觉分割和对话生成的多模态AI模型
GLaMM是一种新型多模态AI模型,将自然语言生成与对象分割技术相结合。该模型提出了接地对话生成任务,并基于GranD数据集进行训练。GLaMM能够处理图像和区域级输入,支持视觉对话和指代表达分割等功能,为视觉语言交互提供了新的解决方案。
定位大规模多模态模型(GLaMM)是一个端到端训练的LMM,它提供视觉定位能力,可以灵活处理图像和区域输入。这使得新的统一任务——定位对话生成成为可能,该任务结合了短语定位、指代表达分割和视觉语言对话。GLaMM具备详细的区域理解、像素级定位和对话能力,可以在多个粒度层面上与用户提供的视觉输入进行多样化的交互。
GLaMM简介。 我们提出了定位大规模多模态模型(GLaMM),这是首个能够生成与对象分割掩码无缝集成的自然语言响应的模型。
新颖的任务和评估。 我们提出了一个新的定位对话生成(GCG)任务。我们还为此任务引入了全面的评估协议。
GranD数据集创建。 我们创建了GranD - 定位任意物体数据集,这是一个大规模的密集标注数据集,包含810M个区域中的7.5M个独特概念的定位信息。
通过我们关于模型训练和评估方法的详细指南,深入了解GLaMM的核心。
安装:提供设置conda环境以运行GLaMM训练、评估和演示的指南。
数据集:提供下载和整理训练和评估所需数据集的详细说明。
GranD:提供下载GranD数据集和运行自动标注流程的详细说明。
模型库:提供所有预训练GLaMM检查点的下载链接。
训练:提供如何训练GLaMM模型以实现各种功能的说明,包括定位对话生成(GCG)、区域级描述和指代表达分割。
评估:概述了使用预训练检查点评估GLaMM模型的程序,涵盖了定位对话生成(GCG)、区域级描述和指代表达分割,如我们的论文中所报告的。
演示:指导您设置本地演示以展示GLaMM的功能。
GLaMM的组件被设计为既可以处理文本提示,也可以处理可选的视觉提示(图像级和感兴趣区域),允许在多个粒度级别上进行交互,并生成定位文本响应。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/9b3d7291-a33b-4a28-9852-66f7e444bb6d.png" alt="GLaMM架构概览"> </p>定位任意物体 GranD数据集是一个大规模数据集,具有自动标注流程,用于详细的区域级理解和分割掩码。GranD包含7.5M个独特概念,锚定在总共810M个区域中,每个区域都有一个分割掩码。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/3c134193-86e1-49e2-9a1f-0aabb52ee000.png" alt="数据集标注流程"> </p>以下我们展示了GranD数据集的一些示例。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/69f72092-8d8f-4274-8728-ea749f0c6f25.png" alt="GranD数据集示例"> </p> <p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/1a714486-e5c4-43bc-b6d0-607e45c9bb95.png" alt="GranD数据集示例"> </p>GranD-f数据集专为GCG任务设计,包含约21.4万对图像-文本对,用于微调阶段以获得更高质量的数据。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/6e8e566b-ea69-41be-8d17-e5297245c416.png" alt="GranD-f数据集示例"> </p>介绍GCG,这是一项创建与分割掩码相关联的图像级描述的任务,旨在增强模型在自然语言描述中的视觉基础。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/81a7d801-b1b1-4115-bca3-5b679f791725.png" alt="GCG结果"> </p> <p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/5852172d-4914-4b69-97d7-394197bff7e7.png" alt="GCG表格"> </p>我们的模型在根据文本指代表达式创建分割掩码方面表现出色。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/3ffc6b3f-8db7-4450-9d3b-a28becdc3a30.png" alt="指代分割结果"> </p> <p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/9631793d-7ecf-40df-950b-31f151862755.png" alt="指代分割表格"> </p>GLaMM生成详细的区域特定描述,并回答基于推理的视觉问题。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/65b3d1a4-12b5-4743-95f1-f7c7181039ea.png" alt="区域描述结果"> </p> <p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/0b54c8aa-0292-4f05-ba30-c0dd39b0cd2e.png" alt="区域描述表格"> </p>GLaMM提供高质量的图像描述,与专门的模型相比表现出色。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/b341b477-7c34-46d4-9a31-05b2bd8654e0.png" alt="图像描述结果"> </p>GLaMM展示了其在进行详细、区域特定和基于图像的对话方面的实力。这有效地突显了其在复杂的视觉-语言交互中的适应性,以及保持大型语言模型固有推理能力的稳健性。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/084f9944-f732-4ed9-8bdc-d6195019a71e.png" alt="对话结果"> </p>@article{hanoona2023GLaMM, title={GLaMM: Pixel Grounding Large Multimodal Model}, author={Rasheed, Hanoona and Maaz, Muhammad and Shaji, Sahal and Shaker, Abdelrahman and Khan, Salman and Cholakkal, Hisham and Anwer, Rao M. and Xing, Eric and Yang, Ming-Hsuan and Khan, Fahad S.}, journal={The IEEE/CVF Conference on Computer Vision and Pattern Recognition}, year={2024} }
我们感谢LLaVA、GPT4ROI和LISA开源他们的模型和代码。
<img src="https://yellow-cdn.veclightyear.com/835a84d5/45a291fe-416f-465d-bfcf-b0262f6a8618.png" width="200" height="100"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/2627ba65-de71-46c4-bb08-061cf1da29ff.png" width="100" height="100"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/9ea175b2-3537-484e-a789-0e4f12a434a7.png" width="360" height="85">