Segment-and-Track-Anything

Segment-and-Track-Anything

视频中任意对象的自动分割与追踪系统

Segment-and-Track-Anything是一个专注于视频中任意对象分割和追踪的开源项目。该系统集成了SAM模型的关键帧分割能力和DeAOT模型的多目标追踪功能。它支持自动检测新对象、交互式修改、文本提示等多种操作模式,适用于街景分析、增强现实、细胞追踪等领域。项目提供了直观的WebUI界面和灵活的参数设置,使用户能够轻松实现复杂的视频对象分割和追踪任务。

SAM-Track视频分割目标跟踪交互式分割AI视觉Github开源项目

分割并跟踪任何物体 (SAM-Track)

在线演示: 在 Colab 中打开 技术报告:

教程: 教程-v1.6(音频),教程-v1.5 (文本), 教程-v1.0 (点击和笔刷)

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/fb8f6f45-8b60-4f8d-bbea-b7c999b9e346.gif" width="880"> </p>

分割并跟踪任何物体是一个开源项目,专注于使用自动和交互方法对视频中的任何物体进行分割和跟踪。主要使用的算法包括SAM (分割任何物体模型)用于自动/交互式关键帧分割,以及DeAOT (使用Transformer解耦特征进行物体关联) (NeurIPS2022)用于高效的多物体跟踪和传播。SAM-Track pipeline 使SAM能够动态和自动检测并分割新物体,而DeAOT负责跟踪所有已识别的物体。

:loudspeaker:新功能

  • [2024/4/23] 我们添加了音频定位功能,可以在视频的音轨中跟踪发声物体。

  • [2023/5/12] 我们为SAM-Track撰写了一份技术报告。

  • [2023/5/7] 我们添加了demo_instseg.ipynb,使用Grounding-DINO在视频的关键帧中检测新物体。它可以应用于智慧城市和自动驾驶领域。

  • [2023/4/29] 我们为AOT-L添加了高级参数:long_term_memory_gapmax_len_long_term

    • long_term_memory_gap控制AOT模型向其长期记忆中添加新参考帧的频率。在掩码传播过程中,AOT将当前帧与存储在长期记忆中的参考帧进行匹配。
    • 将间隔值设置为适当的值有助于获得更好的性能。为了避免长视频中的内存爆炸,我们为长期记忆存储设置了max_len_long_term值,即当记忆帧数量达到max_len_long_term值时,最旧的记忆帧将被丢弃,新帧将被添加。
  • [2023/4/26] 交互式WebUI 1.5版本:我们在交互式WebUI-1.0版本的基础上添加了新功能。

    • 我们为SAMTrack添加了一种新的交互形式——文本提示。
    • 从现在开始,可以交互式地添加多个需要跟踪的物体。
    • 查看交互式WebUI 1.5版本的教程。更多演示将在未来几天发布。
  • [2023/4/26] 图像序列输入:WebUI现在有一个新功能,允许输入图像序列,可用于测试视频分割数据集。从教程开始使用图像序列输入。

  • [2023/4/25] 在线演示: 您可以在Colab中轻松使用SAMTrack进行视觉跟踪任务。

  • [2023/4/23] 交互式WebUI: 我们引入了一个新的WebUI,允许用户通过笔画和点击进行交互式分割。请随意探索并享受教程

  • [2023/4/17] SAMTrack:自动分割并跟踪视频中的任何物体!

:fire:演示

<div align=center>

分割并跟踪任何物体多功能演示

</div>

这个视频展示了SAM-Track在各种场景下的分割和跟踪能力,如街景、AR、细胞、动画、航拍等。

:calendar:待办事项

  • Colab笔记本:于2023年4月25日完成。
  • 1.0版本交互式网页界面:于2023年4月23日完成。
    • 我们将创建一个功能,使用户能够根据需求交互式地修改初始视频帧的蒙版。Segment-and-Track-Anything的交互式分割功能在演示8演示9中有所展示。
    • B站视频链接:演示8演示9
  • 1.5版本交互式网页界面:于2023年4月26日完成。
    • 我们将开发一个功能,允许交互式修改视频第一帧的多对象蒙版。此功能将基于1.0版本。YouTube:演示4演示5;B站:演示4演示5
    • 此外,我们计划加入文本提示作为额外的交互形式。YouTube:演示1演示2;B站:演示1演示2
  • 2.x版本交互式网页界面
    • 在2.x版本中,分割模型将提供两个选项:SAM和SEEM。
    • 我们将开发一个新功能,可以显示固定类别对象检测结果作为提示。
    • 我们将使SAM-Track能够在跟踪过程中添加和修改对象。YouTube:演示6演示7;B站:演示6演示7

演示1展示了SAM-Track接受对象类别作为提示的能力。用户给出类别文本"熊猫"以实现对属于该类别的所有对象进行实例级分割和跟踪。

<div align=center>

演示1

</div>

演示2展示了SAM-Track接受文本描述作为提示的能力。SAM-Track能够根据输入"最左边的熊猫"来分割和跟踪目标对象。

<div align=center>

演示2

</div>

演示3展示了SAM-Track同时跟踪多个对象的能力。SAM-Track能够自动检测新出现的对象。

<div align=center>

演示3

</div>

演示4展示了SAM-Track接受多种交互方式作为提示的能力。用户分别通过点击和笔触指定了人和滑板。

<div align=center>

演示4

</div>

演示5展示了SAM-Track优化全景分割结果的能力。用户通过单击将电车整体合并。

<div align=center>

演示5

</div>

演示6展示了SAM-Track在跟踪过程中添加新对象的能力。用户通过回退到中间帧来标注另一辆车。

<div align=center>

演示6

</div>

演示7展示了SAM-Track在跟踪过程中优化预测的能力。这个功能在复杂环境下的分割和跟踪中非常有优势。

<div align=center>

演示7

</div>

演示8展示了SAM-Track交互式分割和跟踪单个对象的能力。用户指定SAM-Track跟踪一个打街头篮球的男子。

<div align=center>

交互式Segment-and-Track-Anything演示1

</div>

演示9展示了SAM-Track交互式添加指定对象进行跟踪的能力。用户在SAM-Track对场景中所有物体进行分割的基础上,自定义添加要跟踪的对象。

<div align=center>

交互式Segment-and-Track-Anything演示2

</div>

:computer:开始使用

:bookmark_tabs:要求

已克隆Segment-Anything仓库并重命名为sam,同时克隆了aot-benchmark仓库并重命名为aot。

请检查SAMDeAOT中的依赖要求。

该实现在Python 3.9以及PyTorch 1.10和torchvision 0.11下进行了测试。我们推荐使用等效或更高版本的PyTorch

使用install.sh安装SAM-Track所需的库

bash script/install.sh

:star:模型准备

将SAM模型下载到ckpt目录,默认模型为SAM-VIT-B(sam_vit_b_01ec64.pth)。

将DeAOT/AOT模型下载到ckpt目录,默认模型为R50-DeAOT-L(R50_DeAOTL_PRE_YTB_DAV.pth)。 将Grounding-Dino模型下载到ckpt目录,默认模型是GroundingDINO-T(groundingdino_swint_ogc)。

将AST模型下载到ast_master/pretrained_models目录,默认模型是audioset_0.4593(audioset_0.4593.pth)。

你可以使用以下命令行下载默认权重。

bash script/download_ckpt.sh

:heart:运行演示

  • 将要处理的视频放入./assets目录。
  • 然后逐步运行demo.ipynb生成结果。
  • 结果将保存为每一帧的掩码和一个用于可视化的gif文件。

SAM-Track、DeAOT和SAM的参数可以在model_args.py中手动修改,以便使用其他模型或控制每个模型的行为。

:muscle:WebUI应用

我们的用户友好的可视化界面允许你轻松获取实验结果。只需使用命令行启动它。

python app.py

用户可以直接在UI上上传视频,并使用SegTracker自动/交互式地跟踪视频中的对象。我们以一个打篮球的男子视频为例。

交互式WebUI

SegTracker参数:

  • aot_model:用于选择用于跟踪和传播的DeAOT/AOT版本。
  • sam_gap:用于控制SAM在指定帧间隔添加新出现对象的频率。增加此值可减少发现新目标的频率,但会显著提高推理速度。
  • points_per_side:用于控制通过在图像上采样网格来生成掩码的每边点数。增加大小可以增强检测小物体的能力,但较大的目标可能会被分割得更细。
  • max_obj_num:用于限制SAM-Track可以检测和跟踪的最大对象数。更多的对象需要更多的内存使用,约16GB内存可以处理最多255个对象。

使用方法:详情请参考1.0版WebUI教程

:school:关于我们

感谢您对本项目的兴趣。该项目由浙江大学计算机科学与技术学院ReLER实验室指导。ReLER由浙江大学求是特聘教授杨易创立。我们的贡献团队包括程杨明、胡济远、徐源友李柳磊李晓迪杨宗鑫王文冠杨易

:full_moon_with_face:致谢

借用代码的许可证可以在licenses.md文件中找到。

许可证

本项目采用AGPL-3.0许可证。如需通过专有方式将此项目用于商业目的或进行进一步开发,必须获得我们(以及任何借用代码的所有者)的许可。

引用

如果本项目对您的研究有帮助,请考虑在您的出版物中引用相关论文。

@article{cheng2023segment,
  title={Segment and Track Anything},
  author={Cheng, Yangming and Li, Liulei and Xu, Yuanyou and Li, Xiaodi and Yang, Zongxin and Wang, Wenguan and Yang, Yi},
  journal={arXiv preprint arXiv:2305.06558},
  year={2023}
}
@article{kirillov2023segment,
  title={Segment anything},
  author={Kirillov, Alexander and Mintun, Eric and Ravi, Nikhila and Mao, Hanzi and Rolland, Chloe and Gustafson, Laura and Xiao, Tete and Whitehead, Spencer and Berg, Alexander C and Lo, Wan-Yen and others},
  journal={arXiv preprint arXiv:2304.02643},
  year={2023}
}
@inproceedings{yang2022deaot,
  title={Decoupling Features in Hierarchical Propagation for Video Object Segmentation},
  author={Yang, Zongxin and Yang, Yi},
  booktitle={Advances in Neural Information Processing Systems (NeurIPS)},
  year={2022}
}
@inproceedings{yang2021aot,
  title={Associating Objects with Transformers for Video Object Segmentation},
  author={Yang, Zongxin and Wei, Yunchao and Yang, Yi},
  booktitle={Advances in Neural Information Processing Systems (NeurIPS)},
  year={2021}
}
@article{liu2023grounding,
  title={Grounding dino: Marrying dino with grounded pre-training for open-set object detection},
  author={Liu, Shilong and Zeng, Zhaoyang and Ren, Tianhe and Li, Feng and Zhang, Hao and Yang, Jie and Li, Chunyuan and Yang, Jianwei and Su, Hang and Zhu, Jun and others},
  journal={arXiv preprint arXiv:2303.05499},
  year={2023}
}
@inproceedings{gong21b_interspeech,
  author={Yuan Gong and Yu-An Chung and James Glass},
  title={AST: Audio Spectrogram Transformer},
  booktitle={Proc. Interspeech 2021},
  pages={571--575},
  doi={10.21437/Interspeech.2021-698}
  year={2021} 
}

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多