Awesome-LLMs-for-Video-Understanding

Awesome-LLMs-for-Video-Understanding

视频理解领域大型语言模型应用综述

该项目汇集了大型语言模型在视频理解领域的最新应用进展,包括视频LLM模型、训练策略、相关任务、数据集、基准测试和评估方法。项目全面概述了LLM如何推动视频理解技术发展,并探讨了其应用前景。这是研究人员和开发者了解视频LLM最新进展的重要资源。

视频理解大语言模型多模态指令微调视频分析Github开源项目

基于大语言模型的视频理解优秀资源 Awesome

🔥🔥🔥 基于大语言模型的视频理解:一项调查研究

唐云龙<sup>1,*</sup>, 毕静<sup>1,*</sup>, 徐思婷<sup>2,*</sup>, 宋路川<sup>1</sup>, 梁苏珊<sup>1</sup>, 王腾<sup>2,3</sup>, 张道安<sup>1</sup>, 安杰<sup>1</sup>, 林静阳<sup>1</sup>, 朱荣毅<sup>1</sup>, Ali Vosoughi<sup>1</sup>, 黄超<sup>1</sup>, 张泽良<sup>1</sup>, 刘品欣<sup>1</sup>, 冯明茜<sup>1</sup>, 郑锋<sup>2</sup>, 张建国<sup>2</sup>, 罗平<sup>3</sup>, 罗杰波<sup>1</sup>, 徐臣良<sup>1,†</sup> (*核心贡献者, †通讯作者)

<sup>1</sup>罗切斯特大学, <sup>2</sup>南方科技大学, <sup>3</sup>香港大学

<h5 align="center">

论文 | 项目主页

</h5>

图片

📢 新闻

[2024年7月23日]

📢 我们最近更新了我们的调查研究:"基于大语言模型的视频理解:一项调查研究"!

✨ 这项全面的调查涵盖了由大语言模型驱动的视频理解技术(Vid-LLMs)、训练策略、相关任务、数据集、基准测试和评估方法,并讨论了Vid-LLMs在各个领域的应用。

🚀 本次更新的新内容<br>✅ 更新至2024年6月,新增约100个Vid-LLMs和15个新基准测试。 <br>✅ 根据视频表示和LLM功能引入了Vid-LLMs的新分类法。 <br>✅ 新增了初步章节,从粒度和语言参与的角度重新分类视频理解任务,并增强了LLM背景部分。 <br>✅ 新增了训练策略章节,移除了适配器作为模型分类的因素。 <br>✅ 重新设计了所有图表。

这次重大更新之后将有多次小更新。GitHub仓库也将逐步更新。欢迎阅读并提供反馈❤️

<font size=5><center><b> 目录 </b> </center></font>

为什么我们需要Vid-LLMs?

图片

😎 Vid-LLMs:模型

图片

📑 引用

如果您发现我们的调查研究对您的研究有帮助,请引用以下论文:

@article{vidllmsurvey, title={Video Understanding with Large Language Models: A Survey}, author={Tang, Yunlong and Bi, Jing and Xu, Siting and Song, Luchuan and Liang, Susan and Wang, Teng and Zhang, Daoan and An, Jie and Lin, Jingyang and Zhu, Rongyi and Vosoughi, Ali and Huang, Chao and Zhang, Zeliang and Zheng, Feng and Zhang, Jianguo and Luo, Ping and Luo, Jiebo and Xu, Chenliang}, journal={arXiv preprint arXiv:2312.17432}, year={2023}, }

🤖 基于LLM的视频智能体

标题模型日期代码会议
Socratic Models: Composing Zero-Shot Multimodal Reasoning with LanguageSocratic Models2022/04项目主页arXiv
Video ChatCaptioner: Towards Enriched Spatiotemporal DescriptionsStarVideo ChatCaptioner2023/04代码arXiv
VLog: Video as a Long DocumentStarVLog2023/04代码-
ChatVideo: A Tracklet-centric Multimodal and Versatile Video Understanding SystemChatVideo2023/04项目主页arXiv
MM-VID: Advancing Video Understanding with GPT-4V(ision)MM-VID2023/10-arXiv
MISAR: A Multimodal Instructional System with Augmented RealityStarMISAR2023/10项目主页ICCV
Grounding-Prompter: Prompting LLM with Multimodal Information for Temporal Sentence Grounding in Long VideosGrounding-Prompter2023/12-arXiv
NaVid: Video-based VLM Plans the Next Step for Vision-and-Language NavigationNaVid2024/02项目主页 -RSS
VideoAgent: A Memory-augmented Multimodal Agent for Video UnderstandingVideoAgent2024/03项目主页arXiv

👾 Vid-LLM预训练

标题模型日期代码发表会议
从大型语言模型学习视频表示StarLaViLa2022年12月代码CVPR
Vid2Seq:密集视频描述的视觉语言模型大规模预训练Vid2Seq2023年2月代码CVPR
VAST:视觉-音频-字幕-文本全模态基础模型与数据集StarVAST2023年5月代码NeurIPS
Merlin:赋予多模态大语言模型预见性思维Merlin2023年12月-arXiv

👀 Vid-LLM 指令微调

使用连接适配器进行微调

标题模型日期代码发表于
Video-LLaMA:一个用于视频理解的指令微调视觉语言模型 星标Video-LLaMA2023年6月代码arXiv
VALLEY:具有增强能力的大型语言模型视频助手星标VALLEY2023年6月代码-
Video-ChatGPT:通过大型视觉和语言模型实现详细的视频理解星标Video-ChatGPT2023年6月代码arXiv
Macaw-LLM:集成图像、音频、视频和文本的多模态语言建模星标Macaw-LLM2023年6月代码arXiv
LLMVA-GEBC:用于通用事件边界描述的大型语言模型视频适配器 星标LLMVA-GEBC2023年6月代码CVPR
优酷-mPLUG:一个包含1000万规模的中文视频-语言数据集,用于预训练和基准测试 星标mPLUG-video2023年6月代码arXiv
MovieChat:从密集标记到稀疏记忆的长视频理解星标MovieChat2023年7月代码arXiv
大型语言模型是视频问答的时间和因果推理器星标LLaMA-VQA2023年10月代码EMNLP
Video-LLaVA:通过对齐再投影学习统一的视觉表示星标Video-LLaVA2023年11月代码arXiv
Chat-UniVi:统一的视觉表示为大型语言模型赋能图像和视频理解能力星标Chat-UniVi2023年11月代码arXiv
LLaMA-VID:在大型语言模型中一张图像价值2个标记星标LLaMA-VID2023年11月代码arXiv
VISTA-LLAMA:通过视觉标记等距离实现可靠的视频叙述VISTA-LLAMA2023年12月-arXiv
用于视频理解的音视频大语言模型-2023年12月-arXiv
AutoAD:上下文中的电影描述AutoAD2023年6月代码CVPR
AutoAD II:续集 - 电影音频描述中的谁、何时和什么AutoAD II2023年10月-ICCV
多模态大型语言模型的细粒度音视频联合表示星标FAVOR2023年10月代码arXiv
VideoLLaMA2:提升视频-LLM中的时空建模和音频理解星标VideoLLaMA22024年6月代码arXiv

使用插入式适配器进行微调

标题模型日期代码发表平台
Otter: 一个具有上下文指令微调的多模态模型StarOtter2023年6月代码arXiv
VideoLLM: 用大型语言模型建模视频序列StarVideoLLM2023年5月代码arXiv

使用混合适配器进行微调

标题模型日期代码发表平台
VTimeLLM: 赋予LLM掌握视频时刻的能力StarVTimeLLM2023年11月代码arXiv
GPT4Video: 一个统一的多模态大型语言模型,用于遵循指令的理解和安全感知生成GPT4Video2023年11月-arXiv

🦾 混合方法

标题模型日期代码发表平台
VideoChat: 以聊天为中心的视频理解StarVideoChat2023年5月代码 演示arXiv
PG-Video-LLaVA: 像素级定位的大型视频-语言模型StarPG-Video-LLaVA2023年11月代码arXiv
TimeChat: 一个时间敏感的多模态大型语言模型,用于长视频理解StarTimeChat2023年12月代码CVPR
Video-GroundingDINO: 面向开放词汇的时空视频定位StarVideo-GroundingDINO2023年12月代码arXiv
一个视频价值4096个标记:将视频转化为词语以零样本理解它们Video40962023年5月EMNLP

🦾 免训练方法

标题模型日期代码发表平台
SlowFast-LLaVA: 视频大型语言模型的强大免训练基准SlowFast-LLaVA2024年7月-arXiv

任务、数据集和基准测试

识别和预测

名称论文日期链接发表平台
Charades家庭中的好莱坞:众包数据收集用于活动理解2016链接ECCV
YouTube8MYouTube-8M: 一个大规模视频分类基准2016链接-
ActivityNetActivityNet: 人类活动理解的大规模视频基准2015链接CVPR
Kinetics-GEBCGEB+: 通用事件边界描述、定位和检索的基准2022链接ECCV
Kinetics-400Kinetics人类动作视频数据集2017链接-
VidChapters-7MVidChapters-7M: 大规模视频章节2023链接NeurIPS

字幕和描述

名称论文日期链接会议
微软研究院视频描述语料库 (MSVD)收集高度并行的数据用于复述评估2011链接ACL
微软研究院视频到文本 (MSR-VTT)MSR-VTT:一个用于连接视频和语言的大型视频描述数据集2016链接CVPR
Tumblr GIF (TGIF)TGIF:一个新的动画GIF描述数据集和基准2016链接CVPR
Charades家庭中的好莱坞:众包数据收集用于活动理解2016链接ECCV
Charades-Ego演员和观察者:第一人称和第三人称视频的联合建模2018链接CVPR
ActivityNet Captions视频中的密集事件描述2017链接ICCV
HowTo100mHowTo100M:通过观看一亿个带旁白的视频片段学习文本-视频嵌入2019链接ICCV
电影音频描述 (MAD)MAD:一个用于电影音频描述中视频语言定位的可扩展数据集2021链接CVPR
YouCook2从网络教学视频中自动学习程序2017链接AAAI
MovieNetMovieNet:一个全面的电影理解数据集2020链接ECCV
优酷-mPLUG优酷-mPLUG:一个1000万规模的中文视频-语言预训练和基准数据集2023链接arXiv
视频时间线标签 (ViTT)用于密集视频字幕的多模态预训练2020链接AACL-IJCNLP
TVSumTVSum:使用标题对网络视频进行摘要2015链接CVPR
SumMe从用户视频创建摘要2014链接ECCV
VideoXumVideoXum:视频的跨模态视觉和文本摘要2023链接IEEE Trans Multimedia
多源视频字幕 (MSVC)VideoLLaMA2:在视频-LLM中推进时空建模和音频理解2024链接arXiv

定位和检索

名称论文日期链接会议
Epic-Kitchens-100重新调整自我中心视觉2021链接IJCV
VCR (视觉常识推理)从识别到认知:视觉常识推理2019链接CVPR
Ego4D-MQ 和 Ego4D-NLQEgo4D:环游世界3000小时的自我中心视频2021链接CVPR
Vid-STG它在哪里存在:多形式句子的时空视频定位2020链接CVPR
Charades-STATALL:通过语言查询的时序活动定位2017链接ICCV
DiDeMo使用自然语言在视频中定位时刻2017链接ICCV

问答

名称论文日期链接会议
MSVD-QA通过逐步细化外观和动作的注意力进行视频问答2017链接ACM Multimedia
MSRVTT-QA通过逐步细化外观和动作的注意力进行视频问答2017链接ACM Multimedia
TGIF-QATGIF-QA:视觉问答中的时空推理2017链接CVPR
ActivityNet-QAActivityNet-QA:一个通过问答理解复杂网络视频的数据集2019链接AAAI
Pororo-QADeepStory:通过深度嵌入记忆网络进行视频故事问答2017链接IJCAI
TVQATVQA:局部化的组合视频问答2018链接EMNLP

视频指令微调

预训练数据集
名称论文日期链接会议
VidChapters-7MVidChapters-7M:大规模视频章节数据集2023链接NeurIPS
VALOR-1MVALOR:视觉-音频-语言全感知预训练模型和数据集2023链接arXiv
优酷-mPLUG优酷-mPLUG:一个千万级中文视频-语言数据集用于预训练和基准测试2023链接arXiv
InternVidInternVid:用于多模态理解和生成的大规模视频-文本数据集2023链接arXiv
VAST-27MVAST:视觉-音频-字幕-文本全模态基础模型和数据集2023链接NeurIPS
微调数据集
名称论文日期链接会议
MIMIC-ITMIMIC-IT:多模态上下文指令微调2023链接arXiv
VideoInstruct100KVideo-ChatGPT:通过大型视觉和语言模型实现详细的视频理解2023链接arXiv
TimeITTimeChat:用于长视频理解的时间敏感多模态大语言模型2023链接CVPR

基于视频的大语言模型基准

标题日期代码会议
LVBench:一个极长视频理解基准2024/06代码-
Video-Bench:一个全面的基准和工具包,用于评估基于视频的大语言模型2023/11代码-
感知测试:多模态视频模型的诊断基准2023/05代码NeurIPS 2023, ICCV 2023 Workshop
优酷-mPLUG:一个千万级中文视频-语言数据集用于预训练和基准测试2023/07代码-
FETV:一个用于开放域文本到视频生成的细粒度评估基准2023/11代码NeurIPS 2023
MoVQA:一个用于长篇电影理解的多功能问答基准2023/12代码-
MVBench:一个全面的多模态视频理解基准2023/12代码-
TempCompass:视频大语言模型真的理解视频吗?2024/03代码ACL 2024
Video-MME:首个全面评估多模态大语言模型在视频分析中表现的基准2024/06代码-
VideoHallucer:评估大型视频-语言模型中的内在和外在幻觉2024/06代码-

贡献

我们欢迎每个人为这个仓库做出贡献,帮助改进它。你可以提交拉取请求来添加新的论文、项目和有用的材料,或者纠正你可能发现的任何错误。请确保你的拉取请求遵循"标题|模型|日期|代码|会议"的格式。感谢你的宝贵贡献!

🌟 星标历史

星标历史图表

♥️ 贡献者

<a href="https://github.com/yunlong10/Awesome-LLMs-for-Video-Understanding/graphs/contributors"> <img src="https://contrib.rocks/image?repo=yunlong10/Awesome-LLMs-for-Video-Understanding" /> </a>

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多