唐云龙<sup>1,*</sup>, 毕静<sup>1,*</sup>, 徐思婷<sup>2,*</sup>, 宋路川<sup>1</sup>, 梁苏珊<sup>1</sup>, 王腾<sup>2,3</sup>, 张道安<sup>1</sup>, 安杰<sup>1</sup>, 林静阳<sup>1</sup>, 朱荣毅<sup>1</sup>, Ali Vosoughi<sup>1</sup>, 黄超<sup>1</sup>, 张泽良<sup>1</sup>, 刘品欣<sup>1</sup>, 冯明茜<sup>1</sup>, 郑锋<sup>2</sup>, 张建国<sup>2</sup>, 罗平<sup>3</sup>, 罗杰波<sup>1</sup>, 徐臣良<sup>1,†</sup> (*核心贡献者, †通讯作者)
<h5 align="center"> </h5><sup>1</sup>罗切斯特大学, <sup>2</sup>南方科技大学, <sup>3</sup>香港大学
[2024年7月23日]
📢 我们最近更新了我们的调查研究:"基于大语言模型的视频理解:一项调查研究"!
✨ 这项全面的调查涵盖了由大语言模型驱动的视频理解技术(Vid-LLMs)、训练策略、相关任务、数据集、基准测试和评估方法,并讨论了Vid-LLMs在各个领域的应用。
🚀 本次更新的新内容: <br>✅ 更新至2024年6月,新增约100个Vid-LLMs和15个新基准测试。 <br>✅ 根据视频表示和LLM功能引入了Vid-LLMs的新分类法。 <br>✅ 新增了初步章节,从粒度和语言参与的角度重新分类视频理解任务,并增强了LLM背景部分。 <br>✅ 新增了训练策略章节,移除了适配器作为模型分类的因素。 <br>✅ 重新设计了所有图表。
这次重大更新之后将有多次小更新。GitHub仓库也将逐步更新。欢迎阅读并提供反馈❤️
<font size=5><center><b> 目录 </b> </center></font>
如果您发现我们的调查研究对您的研究有帮助,请引用以下论文:
@article{vidllmsurvey, title={Video Understanding with Large Language Models: A Survey}, author={Tang, Yunlong and Bi, Jing and Xu, Siting and Song, Luchuan and Liang, Susan and Wang, Teng and Zhang, Daoan and An, Jie and Lin, Jingyang and Zhu, Rongyi and Vosoughi, Ali and Huang, Chao and Zhang, Zeliang and Zheng, Feng and Zhang, Jianguo and Luo, Ping and Luo, Jiebo and Xu, Chenliang}, journal={arXiv preprint arXiv:2312.17432}, year={2023}, }
标题 | 模型 | 日期 | 代码 | 会议 |
---|---|---|---|---|
Socratic Models: Composing Zero-Shot Multimodal Reasoning with Language | Socratic Models | 2022/04 | 项目主页 | arXiv |
Video ChatCaptioner: Towards Enriched Spatiotemporal Descriptions | Video ChatCaptioner | 2023/04 | 代码 | arXiv |
VLog: Video as a Long Document | VLog | 2023/04 | 代码 | - |
ChatVideo: A Tracklet-centric Multimodal and Versatile Video Understanding System | ChatVideo | 2023/04 | 项目主页 | arXiv |
MM-VID: Advancing Video Understanding with GPT-4V(ision) | MM-VID | 2023/10 | - | arXiv |
MISAR: A Multimodal Instructional System with Augmented Reality | MISAR | 2023/10 | 项目主页 | ICCV |
Grounding-Prompter: Prompting LLM with Multimodal Information for Temporal Sentence Grounding in Long Videos | Grounding-Prompter | 2023/12 | - | arXiv |
NaVid: Video-based VLM Plans the Next Step for Vision-and-Language Navigation | NaVid | 2024/02 | 项目主页 - | RSS |
VideoAgent: A Memory-augmented Multimodal Agent for Video Understanding | VideoAgent | 2024/03 | 项目主页 | arXiv |
标题 | 模型 | 日期 | 代码 | 发表会议 |
---|---|---|---|---|
从大型语言模型学习视频表示 | LaViLa | 2022年12月 | 代码 | CVPR |
Vid2Seq:密集视频描述的视觉语言模型大规模预训练 | Vid2Seq | 2023年2月 | 代码 | CVPR |
VAST:视觉-音频-字幕-文本全模态基础模型与数据集 | VAST | 2023年5月 | 代码 | NeurIPS |
Merlin:赋予多模态大语言模型预见性思维 | Merlin | 2023年12月 | - | arXiv |
标题 | 模型 | 日期 | 代码 | 发表于 |
---|---|---|---|---|
Video-LLaMA:一个用于视频理解的指令微调视觉语言模型 | Video-LLaMA | 2023年6月 | 代码 | arXiv |
VALLEY:具有增强能力的大型语言模型视频助手 | VALLEY | 2023年6月 | 代码 | - |
Video-ChatGPT:通过大型视觉和语言模型实现详细的视频理解 | Video-ChatGPT | 2023年6月 | 代码 | arXiv |
Macaw-LLM:集成图像、音频、视频和文本的多模态语言建模 | Macaw-LLM | 2023年6月 | 代码 | arXiv |
LLMVA-GEBC:用于通用事件边界描述的大型语言模型视频适配器 | LLMVA-GEBC | 2023年6月 | 代码 | CVPR |
优酷-mPLUG:一个包含1000万规模的中文视频-语言数据集,用于预训练和基准 测试 | mPLUG-video | 2023年6月 | 代码 | arXiv |
MovieChat:从密集标记到稀疏记忆的长视频理解 | MovieChat | 2023年7月 | 代码 | arXiv |
大型语言模型是视频问答的时间和因果推理器 | LLaMA-VQA | 2023年10月 | 代码 | EMNLP |
Video-LLaVA:通过对齐再投影学习统一的视觉表示 | Video-LLaVA | 2023年11月 | 代码 | arXiv |
Chat-UniVi:统一的视觉表示为大型语言模型赋能图像和视频理解能力 | Chat-UniVi | 2023年11月 | 代码 | arXiv |
LLaMA-VID:在大型语言模型中一张图像价值2个标记 | LLaMA-VID | 2023年11月 | 代码 | arXiv |
VISTA-LLAMA:通过视觉标记等距离实现可靠的视频叙述 | VISTA-LLAMA | 2023年12月 | - | arXiv |
用于视频理解的音视频大语言模型 | - | 2023年12月 | - | arXiv |
AutoAD:上下文中的电影描述 | AutoAD | 2023年6月 | 代码 | CVPR |
AutoAD II:续集 - 电影音频描述中的谁、何时和什么 | AutoAD II | 2023年10月 | - | ICCV |
多模态大型语言模型的细粒度音视频联合表示 | FAVOR | 2023年10月 | 代码 | arXiv |
VideoLLaMA2:提升视频-LLM中的时空建模和音频理解 | VideoLLaMA2 | 2024年6月 | 代码 | arXiv |
标题 | 模型 | 日期 | 代码 | 发表平台 |
---|---|---|---|---|
Otter: 一个具有上下文指令微调的多模态模型 | Otter | 2023年6月 | 代码 | arXiv |
VideoLLM: 用大型语言模型建模视频序列 | VideoLLM | 2023年5月 | 代码 | arXiv |
标题 | 模型 | 日期 | 代码 | 发表平台 |
---|---|---|---|---|
VTimeLLM: 赋予LLM掌握视频时刻的能力 | VTimeLLM | 2023年11月 | 代码 | arXiv |
GPT4Video: 一个统一的多模态大型语言模型,用于遵循指令的理解和安全感知生成 | GPT4Video | 2023年11月 | - | arXiv |
标题 | 模型 | 日期 | 代码 | 发表平台 |
---|---|---|---|---|
VideoChat: 以聊天为中心的视频理解 | VideoChat | 2023年5月 | 代码 演示 | arXiv |
PG-Video-LLaVA: 像素级定位的大型视频-语言模型 | PG-Video-LLaVA | 2023年11月 | 代码 | arXiv |
TimeChat: 一个时间敏感的多模态大型语言模型,用于长视频理解 | TimeChat | 2023年12月 | 代码 | CVPR |
Video-GroundingDINO: 面向开放词汇的时空视频定位 | Video-GroundingDINO | 2023年12月 | 代码 | arXiv |
一个视频价值4096个标记:将视频转化为词语以零样本理解它们 | Video4096 | 2023年5月 | EMNLP |
标题 | 模型 | 日期 | 代码 | 发表平台 |
---|---|---|---|---|
SlowFast-LLaVA: 视频 大型语言模型的强大免训练基准 | SlowFast-LLaVA | 2024年7月 | - | arXiv |
名称 | 论文 | 日期 | 链接 | 发表平台 |
---|---|---|---|---|
Charades | 家庭中的好莱坞:众包数据收集用于活动理解 | 2016 | 链接 | ECCV |
YouTube8M | YouTube-8M: 一个大规模视频分类基准 | 2016 | 链接 | - |
ActivityNet | ActivityNet: 人类活动理解的大规模视频基准 | 2015 | 链接 | CVPR |
Kinetics-GEBC | GEB+: 通用事件边界描述、定位和检索的基准 | 2022 | 链接 | ECCV |
Kinetics-400 | Kinetics人类动作视频数据集 | 2017 | 链接 | - |
VidChapters-7M | VidChapters-7M: 大规模视频章节 | 2023 | 链接 | NeurIPS |
名称 | 论文 | 日期 | 链接 | 会议 |
---|---|---|---|---|
微软研究院视频描述语料库 (MSVD) | 收集高度并行的数据用于复述评估 | 2011 | 链接 | ACL |
微软研究院视频到文本 (MSR-VTT) | MSR-VTT:一个用于连接视频和语言的大型视频描述数据集 | 2016 | 链接 | CVPR |
Tumblr GIF (TGIF) | TGIF:一个新的动画GIF描述数据集和基准 | 2016 | 链接 | CVPR |
Charades | 家庭中的好莱坞:众包数据收集用于活动理解 | 2016 | 链接 | ECCV |
Charades-Ego | 演员和观察者:第一人称和第三人称视频的联合建模 | 2018 | 链接 | CVPR |
ActivityNet Captions | 视频中的密集事件描述 | 2017 | 链接 | ICCV |
HowTo100m | HowTo100M:通过观看一亿个带旁白的视频片 段学习文本-视频嵌入 | 2019 | 链接 | ICCV |
电影音频描述 (MAD) | MAD:一个用于电影音频描述中视频语言定位的可扩展数据集 | 2021 | 链接 | CVPR |
YouCook2 | 从网络教学视频中自动学习程序 | 2017 | 链接 | AAAI |
MovieNet | MovieNet:一个全面的电影理解数据集 | 2020 | 链接 | ECCV |
优酷-mPLUG | 优酷-mPLUG:一个1000万规模的中文视频-语言预训练和基准数据集 | 2023 | 链接 | arXiv |
视频时间线标签 (ViTT) | 用于密集视频字幕的多模态预训练 | 2020 | 链接 | AACL-IJCNLP |
TVSum | TVSum:使用标题对网络视频进行摘要 | 2015 | 链接 | CVPR |
SumMe | 从用户视频创建摘要 | 2014 | 链接 | ECCV |
VideoXum | VideoXum:视频的跨模态视觉和文本摘要 | 2023 | 链接 | IEEE Trans Multimedia |
多源视频字幕 (MSVC) | VideoLLaMA2:在视频-LLM中推进时空建模和音频理解 | 2024 | 链接 | arXiv |
名称 | 论文 | 日期 | 链接 | 会议 |
---|---|---|---|---|
Epic-Kitchens-100 | 重新调整自我中心视觉 | 2021 | 链接 | IJCV |
VCR (视觉常识推理) | 从识别到认知:视觉常识推理 | 2019 | 链接 | CVPR |
Ego4D-MQ 和 Ego4D-NLQ | Ego4D:环游世界3000小时的自我中心视频 | 2021 | 链接 | CVPR |
Vid-STG | 它在哪里存在:多形式句子的时空视频定位 | 2020 | 链接 | CVPR |
Charades-STA | TALL: 通过语言查询的时序活动定位 | 2017 | 链接 | ICCV |
DiDeMo | 使用自然语言在视频中定位时刻 | 2017 | 链接 | ICCV |
名称 | 论文 | 日期 | 链接 | 会议 |
---|---|---|---|---|
MSVD-QA | 通过逐步细化外观和动作的注意力进行视频问答 | 2017 | 链接 | ACM Multimedia |
MSRVTT-QA | 通过逐步细化外观和动作的注意力进行视频问答 | 2017 | 链接 | ACM Multimedia |
TGIF-QA | TGIF-QA:视觉问答中的时空推理 | 2017 | 链接 | CVPR |
ActivityNet-QA | ActivityNet-QA:一个通过问答理解复杂网络视频的数据集 | 2019 | 链接 | AAAI |
Pororo-QA | DeepStory:通过深度嵌入记忆网络进行视频故事问答 | 2017 | 链接 | IJCAI |
TVQA | TVQA:局部化的组合视频问答 | 2018 | 链接 | EMNLP |
名称 | 论文 | 日期 | 链接 | 会议 |
---|---|---|---|---|
VidChapters-7M | VidChapters-7M:大规模视频章节数据集 | 2023 | 链接 | NeurIPS |
VALOR-1M | VALOR:视觉-音频-语言全感知预训练模型和数据集 | 2023 | 链接 | arXiv |
优酷-mPLUG | 优酷-mPLUG:一个千万级中文视频-语言数据集用于预训练和基准测试 | 2023 | 链接 | arXiv |
InternVid | InternVid:用于多模态理解和生成的大规模视频-文本数据集 | 2023 | 链接 | arXiv |
VAST-27M | VAST:视觉-音频-字幕-文本全模态基础模型和数据集 | 2023 | 链接 | NeurIPS |
名称 | 论文 | 日期 | 链接 | 会议 |
---|---|---|---|---|
MIMIC-IT | MIMIC-IT:多模态上下文指令微调 | 2023 | 链接 | arXiv |
VideoInstruct100K | Video-ChatGPT:通过大型视觉和语言模型实现详细的视频理解 | 2023 | 链接 | arXiv |
TimeIT | TimeChat:用于长视频理解的时间敏感多模态大语言模型 | 2023 | 链接 | CVPR |
标题 | 日期 | 代码 | 会议 |
---|---|---|---|
LVBench:一个极长视频理解基准 | 2024/06 | 代码 | - |
Video-Bench:一个全面的基准和工具包,用于评估基于视频的大语言模型 | 2023/11 | 代码 | - |
感知测试:多模态视频模型的诊断基准 | 2023/05 | 代码 | NeurIPS 2023, ICCV 2023 Workshop |
优酷-mPLUG:一个千万级中文视频-语言数据集用于预训练和基准测试 | 2023/07 | 代码 | - |
FETV:一个用于开放域文本到视频生成的细粒度评估基准 | 2023/11 | 代码 | NeurIPS 2023 |
MoVQA:一个用于长篇电影理解的多功能问答基准 | 2023/12 | 代码 | - |
MVBench:一个全面的多模态视频理解基准 | 2023/12 | 代码 | - |
TempCompass:视频大语言模型真的理解视频吗? | 2024/03 | 代码 | ACL 2024 |
Video-MME:首个全面评估多模态大语言模型在视频分析中表现的基准 | 2024/06 | 代码 | - |
VideoHallucer:评估大型视频-语言模型中的内在和外在幻觉 | 2024/06 | 代码 | - |
我们欢迎每个人为这个仓库做出贡献,帮助改进它。你可以提交拉取请求来添加新的论文、项目和有用的材料,或者纠正你可能发现的任何错误。请确保你的拉取请求遵循"标题|模型|日期|代码|会议"的格式。感谢你的宝贵贡献!
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备 上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的 一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能 的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号