EVF-SAM

EVF-SAM

基于早期视觉语言融合的文本引导图像分割模型

EVF-SAM项目通过早期视觉语言融合技术扩展了SAM模型的能力,实现高精度的文本引导图像分割。该模型在T4 GPU上可在几秒内完成推理,计算效率高。最新版本基于SAM-2支持视频分割,展现了零样本文本引导视频分割能力。EVF-SAM在多个数据集上表现出色,为计算机视觉领域提供了新的解决方案。

EVF-SAM图像分割视觉语言融合语义分割SAM模型Github开源项目
<div align ="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/853320d6-4b13-4729-9aab-45038501dafe.jpg" width="20%"> <h1> 📷 EVF-SAM </h1> <h3> 用于文本提示分割任意物体模型的早期视觉语言融合 </h3>

张宇轩<sup>1,*</sup>, 程天恒<sup>1,*</sup>, 刘磊<sup>2</sup>, 刘恒<sup>2</sup>, 冉龙进<sup>2</sup>, 陈晓鑫<sup>2</sup>, 刘文预<sup>1</sup>, 王兴刚<sup>1,📧</sup>

<sup>1</sup> 华中科技大学, <sup>2</sup> vivo AI 实验室

(* 贡献相同, 📧 通讯作者)

arxiv论文 🤗 HuggingFace模型 🤗 HuggingFace演示

</div>

新闻

我们已将EVF-SAM扩展到强大的SAM-2。除了在图像预测方面的改进外,我们的新模型在视频预测方面(由SAM-2驱动)也表现出色。仅仅通过在RES数据集上进行简单的图像训练过程,我们发现我们的EVF-SAM具有零样本视频文本提示能力。试试我们的代码吧!

亮点

<div align ="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/3f9c68bf-4b4b-45a6-9b81-0da381b0fff1.jpg"> </div>
  • EVF-SAM通过文本提示分割扩展了SAM的功能,在指代表达分割任务中实现了高准确率。
  • EVF-SAM设计用于高效计算,能够在T4 GPU上实现每张图像几秒钟的快速推理。

更新

  • 发布代码
  • 发布权重
  • 发布演示 👉 🤗 HuggingFace演示
  • 发布基于SAM-2的代码和权重
  • 更新支持SAM-2的演示

可视化

<table class="center"> <tr> <td style="text-align:center;"><b>输入文本</b></td> <td style="text-align:center;"><b>输入图像</b></td> <td style="text-align:center;"><b>输出</b></td> </tr> <tr> <td width=20% style="text-align:center;"><b>"左上角的斑马"</b></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/61c7d918-e5be-4587-bfcc-9534c1a798ce.jpg"></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/f493ea45-d7d2-47ae-80ea-a7c9a41fd1b6.png"></td> </tr> <tr> <td width=20% style="text-align:center;"><b>"上面有黄色标志的披萨"</b></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/5d55eaba-d6cf-4198-ad53-db8c79ac7cf8.jpg"></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/f0947fa1-3d74-4e63-9c1d-a63c89ca88d1.png"></td> </tr> <tr> <td width=20% style="text-align:center;"><b>"最靠近番茄酱瓶的西兰花"</b></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/648086e8-ffd2-4585-9062-c1e26908750f.jpg"></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/d8db8a00-6c62-4b32-9f93-bda64ff12123.png"></td> </tr> <tr> <td width=20% style="text-align:center;"><b>"开往南部公共区域的公交车"</b></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/069f558e-6288-484d-a7a7-62333ca88f90.jpg"></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/c3b98ce0-60dc-41c3-9786-333ef0990640.png"></td> </tr> <tr> <td width=20% style="text-align:center;"><b>"中间3根带冰和绿叶的胡萝卜"</b></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/9f73f1bd-0fa1-4971-87d2-0255b4e2e208.jpg"></td> <td><img src="https://yellow-cdn.veclightyear.com/835a84d5/bd2fd1de-d4c5-4df5-a2b9-3c1a750e4de2.png"></td> </tr> </table>

安装

  1. 克隆此仓库
  2. 根据你的CUDA版本安装pytorch注意,如果你要使用SAM-2,需要torch>=2.0.0,如果你想启用flash-attention,需要torch>=2.2。(我们使用torch==2.0.1和CUDA 11.7,运行良好。)
  3. pip install -r requirements.txt
  4. 如果你要使用视频预测功能,请运行:
cd model/segment_anything_2
python setup.py build_ext --inplace

权重

<table class="center"> <tr> <td style="text-align:center;"><b>名称</b></td> <td style="text-align:center;"><b>SAM</b></td> <td style="text-align:center;"><b>BEIT-3</b></td> <td style="text-align:center;"><b>参数</b></td> <td style="text-align:center;"><b>提示编码器 & 掩码解码器</b> <td style="text-align:center;"><b>参考分数</b></td> </tr> <tr> <td style="text-align:center;"><a href="https://huggingface.co/YxZhang/evf-sam2">EVF-SAM2</a></td> <td style="text-align:center;"><b>SAM-2-L</b></td> <td style="text-align:center;"><b>BEIT-3-L</b></td> <td style="text-align:center;"><b>898M</b></td> <td style="text-align:center;"><b>冻结</b></td> <td style="text-align:center;"><b>83.6</b></td> </tr> <tr> <td style="text-align:center;"><a href="https://huggingface.co/YxZhang/evf-sam">EVF-SAM</a></td> <td style="text-align:center;"><b>SAM-H</b></td> <td style="text-align:center;"><b>BEIT-3-L</b></td> <td style="text-align:center;"><b>1.32B</b></td> <td style="text-align:center;"><b>训练</b></td> <td style="text-align:center;"><b>83.7</b></td> </tr> <tr> <td style="text-align:center;"><b>EVF-Effi-SAM-L </b></td> <td style="text-align:center;"><b>EfficientSAM-S</b></td> <td style="text-align:center;"><b>BEIT-3-L</b></td> <td style="text-align:center;"><b>700M</b></td> <td style="text-align:center;"><b>训练</b></td> <td style="text-align:center;"><b>83.5</b></td> </tr> <tr> <td style="text-align:center;"><b>EVF-Effi-SAM-B </b></td> <td style="text-align:center;"><b>EfficientSAM-T</b></td> <td style="text-align:center;"><b>BEIT-3-B</b></td> <td style="text-align:center;"><b>232M</b></td> <td style="text-align:center;"><b>训练</b></td> <td style="text-align:center;"><b>80.0</b></td> </tr> </table>

推理

1. 图像预测

python inference.py  \
  --version <evf-sam路径> \
  --precision='fp16' \
  --vis_save_path "<输出目录路径>" \
  --model_type <"ori" 或 "effi" 或 "sam2", 取决于你加载的检查点>   \
  --image_path <输入图像路径> \
  --prompt <自定义文本提示>

--load_in_8bit--load_in_4bit可选的
例如:

python inference.py  \
  --version evf-sam2 \
  --precision='fp16' \
  --vis_save_path "vis" \
  --model_type sam2   \
  --image_path "assets/zebra.jpg" \
  --prompt "左上方的斑马"

2. 视频预测

首先将视频切分为帧

ffmpeg -i <你的视频>.mp4 -q:v 2 -start_number 0 <帧目录>/'%05d.jpg'

然后:

python inference_video.py  \
  --version <evf-sam2路径> \
  --precision='fp16' \
  --vis_save_path "vis/" \
  --image_path <帧目录>   \
  --prompt <自定义文本提示>   \
  --model_type sam2

你可以使用frame2video.py将预测的帧连接成视频。

演示

图像演示

python demo.py <evf-sam路径>

视频演示

python demo_video.py <evf-sam2路径>

数据准备

指代分割数据集:refCOCOrefCOCO+refCOCOgrefCLEFsaiapr_tc-12)和COCO2014train

├── dataset
│   ├── refer_seg
│   │   ├── images
│   │   |   ├── saiapr_tc-12 
│   │   |   └── mscoco
│   │   |       └── images
│   │   |           └── train2014
│   │   ├── refclef
│   │   ├── refcoco
│   │   ├── refcoco+
│   │   └── refcocog

评估

torchrun --standalone --nproc_per_node <GPU数量> eval.py   \
    --version <evf-sam路径> \
    --dataset_dir <数据根目录路径>   \
    --val_dataset "refcoco|unc|val" \
    --model_type <"ori" 或 "effi" 或 "sam2", 取决于你加载的检查点>

致谢

我们借鉴了LISAunilmSAMEfficientSAMSAM-2的部分代码。

引用

@article{zhang2024evfsamearlyvisionlanguagefusion, title={EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model}, author={Yuxuan Zhang and Tianheng Cheng and Rui Hu and Lei Liu and Heng Liu and Longjin Ran and Xiaoxin Chen and Wenyu Liu and Xinggang Wang}, year={2024}, eprint={2406.20076}, archivePrefix={arXiv}, primaryClass={cs.CV}, url={https://arxiv.org/abs/2406.20076}, }

编辑推荐精选

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

下拉加载更多