FrozenBiLM

FrozenBiLM

创新视频问答模型在零样本和少样本场景中表现优异

FrozenBiLM是一种基于冻结双向语言模型的视频问答模型。该模型在零样本和少样本场景下表现优异,同时在标准数据集上也具有竞争力。FrozenBiLM采用跨模态训练方法,可处理填空题和开放式问答等多种视频问答任务。此外,该模型适用于无监督学习和下游任务微调,展现出较强的灵活性和适应性。

VideoQAFrozenBiLMzero-shot语言模型多模态Github开源项目

通过冻结双向语言模型实现零样本视频问答

网页论文

示例图

FrozenBiLM是一种新的视频问答模型,基于冻结的双向语言模型构建。FrozenBiLM在无需手动标注(零样本)或有限训练数据(少样本)的情况下表现出色,同时在标准数据集上训练时(全监督)也具有竞争力。

本代码库提供了我们FrozenBiLM论文(NeurIPS 2022)的代码,包括:

  • 环境设置
  • 数据下载说明
  • 数据预处理和视觉特征提取脚本,以及预处理后的数据和特征
  • 预训练检查点
  • 跨模态训练、下游全监督、少样本和零样本视频问答的训练和评估脚本,包括各种基线模型
  • 视频问答演示脚本

设置

要安装所需依赖,请运行:

conda create -n frozenbilm_env python=3.8 
conda activate frozenbilm_env
conda install pytorch==1.8.1 torchvision==0.9.1 cudatoolkit=11.1 -c pytorch -c nvidia 
pip install -r requirements.txt

您可以在args.py中填写全局路径。
要使用给定的预训练文本语言模型,您应该从Hugging Face Hub下载相应的权重并将它们放在TRANSFORMERS_CACHE中。

快速开始

如果您希望快速开始视频问答训练或推理。

下载预处理数据、视觉特征和检查点

要下载预训练检查点、预处理数据、ASR和视觉特征,请运行:

bash download/download_checkpoints.sh <MODEL_DIR>
bash download/download_downstream.sh <DATA_DIR>

如果您在使用gshell时遇到问题,可以在这里访问处理过的数据,在这里访问检查点。
模型大约需要8GB,数据需要12GB。
请注意,由于存储限制,大多数预训练检查点仅包含更新后的参数(而不包含冻结的参数)。
这意味着在使用提供的检查点时,您需要确保已正确从Hugging Face下载了所选语言模型的权重。
为了完整性,frozenbilm.pthfrozenbilm_bertbase_noadapter.pthfrozenbilm_bertlarge_noadapter.pth包含所有参数。
另外请注意,由于存储问题,我们不公开托管WebVid10M数据集的视觉特征。

详细说明

数据下载

<details> <summary>点击查看详情... </summary> **WebVid10M** 从[数据集提供者](https://m-bain.github.io/webvid-dataset/)下载注释和视频。 注释应位于`<DATA_DIR>/WebVid`。

LSMDC-FiB数据集提供者下载注释和视频。 注释应位于<DATA_DIR>/LSMDC

TGIF-FrameQA数据集提供者下载注释和GIF。 注释应位于<DATA_DIR>/TGIF-QA

How2QA数据集提供者下载注释和视频。 注释应位于<DATA_DIR>/How2QA

TVQA数据集提供者下载注释和视频。 注释应位于<DATA_DIR>/TVQA

对于iVQA、MSRVTT-QA、MSVD-QA和ActivityNet-QA,我们使用Just Ask的预处理文件,并将它们下载到<DATA_DIR>/iVQA<DATA_DIR>/MSRVTT-QA<DATA_DIR>/MSVD-QA<DATA_DIR>/ActivityNet-QA

要下载自动语音字幕,我们使用youtube-dl,除了LSMDC、How2QA和TVQA,这些数据集的作者提供了字幕。 然后,我们将数据集中每个视频的vtt文件转换为一个pickle文件subtitles.pkl,其中包含一个字典,将每个video_id映射到一个包含start、end和text键的字典,对应于相应video_id中的语音。

</details>

注释预处理

<details> <summary>点击查看详情... </summary> 要对不同数据集的注释进行预处理,请运行: ``` python preproc/preproc_webvid.py python preproc/preproc_lsmdc.py python preproc/preproc_tgifqa.py python preproc/preproc_how2qa.py python preproc/preproc_tvqa.py ``` iVQA、MSRVTT-QA、MSVD-QA和ActivityNet-QA已经预处理完成(参见数据下载说明)。 </details>

视觉特征提取

<details> <summary>点击查看详情... </summary> 我们在`extract`文件夹中提供了使用CLIP ViT-L/14@224px从视频中提取视觉特征的代码。 这需要下载[此仓库](https://github.com/openai/CLIP)中提供的预训练权重。 **提取** 对于每个数据集,您应该准备一个包含 `video_path` 和 `feature_path` 列的csv文件。然后使用以下命令(您可以在多个GPU上启动此脚本以加快提取过程): ``` python extract/extract.py --csv <csv路径> ```

合并文件 要将提取的特征合并为每个下游数据集的单个文件,请使用:

python extract/merge_features.py --folder <特征路径> \
--output_path <默认数据集目录>/clipvitl14.pth --dataset <数据集>

对于WebVid10M,您可以将特征保留在单独的文件中(每个视频一个文件),因为数据集太大,无法将特征存储在单个文件中。 最好将这些特征放在SSD上,以加快训练期间的实时读取速度。

可用的检查点

训练数据LSMDCiVQAMSRVTT-QAMSVD-QAActivityNet-QATGIF-QAHow2QATVQA链接大小
WebVid10M51.526.816.733.825.941.958.459.7Drive3.7GB(包括冻结权重)
WebVid10M + LSMDC63.5Drive114MB
WebVid10M + iVQA39.6Drive114MB
WebVid10M + MSRVTT-QA47.0Drive114MB
WebVid10M + MSVD-QA54.8Drive114MB
WebVid10M + ActivityNet-QA43.2Drive114MB
WebVid10M + TGIF-QA68.6Drive114MB
WebVid10M + How2QA86.3Drive114MB
WebVid10M + TVQA82.0Drive114MB

请注意,在下游数据集的10%或1%上微调的检查点(少样本设置)也可以在这里访问。 使用BERT-Base或BERT-Large语言模型(不带适配器)而不是DeBERTa的变体也在此文件夹中。

跨模态训练

FrozenBiLM

要在WebVid10M上训练FrozenBiLM,请运行:

python -m torch.distributed.launch --nproc_per_node 8 --use_env main.py \
--combine_datasets webvid --combine_datasets_val webvid --save_dir=trainwebvid \
--lr=3e-5 --ds_factor_ff=8 --ds_factor_attn=8 \
--batch_size=16 --batch_size_val=16 --epochs=2 \

基准模型

<details> <summary>点击查看详情... </summary> 基于之前的命令: - 不使用适配器的变体: 传入 `--lr=3e-4 --ds_factor_ff=0 --ds_factor_attn=0` - UnFrozenBiLM变体: 传入 `--lr=1e-5 --ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0 --batch_size=8` - 无语言初始化的UnFrozenBiLM变体: 传入 `-lr=1e-5 --ft_lm --ft_mlm --scratch --ds_factor_ff=0 --ds_factor_attn=0 --batch_size=8` - 其他语言模型: 传入 `--model_name=bert-large-uncased` 或 `--model_name=bert-base-uncased` 以使用BERT-Base或BERT-Large代替Deberta-V2-XLarge - 在WebVid10M的子集上训练: 对训练数据框文件进行随机采样,并更改 `--webvid_train_csv_path`。论文中使用的随机子集将很快发布。 </details>

自回归变体

<details> <summary>点击查看详情... </summary> 要在WebVid10M上训练基于GPT-J-6B的自回归变体,运行: ``` python -m torch.distributed.launch --nproc_per_node 8 --use_env main_ar.py \ --combine_datasets webvid --combine_datasets_val webvid --save_dir=trainarwebvid \ --lr=3e-4 --model_name=gpt-j-6b \ --batch_size=4 --batch_size_val=4 --epochs=2 ``` 其他语言模型: 传入 `--model_name=gpt-neo-1p3b --batch_size=16 --batch_size_val=16` 或 `--model_name=gpt-neo-2p7b --batch_size=8 --batch_size_val=8` 以使用GPT-Neo-1.3B或GPT-Neo-2.7B代替GPT-J-6B </details>

零样本视频问答

填空和开放式视频问答

FrozenBiLM

要在LSMDC-FiB、iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA或TGIF-QA FrameQA上评估跨模态训练的FrozenBiLM,运行:

python -m torch.distributed.launch --nproc_per_node 8 --use_env videoqa.py --test --eval \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zs<dataset> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size_val=32 --max_tokens=256 --load=<CKPT_PATH> --<dataset>_vocab_path=$DATA_DIR/<dataset>/vocab1000.json

基准模型

<details> <summary>点击查看详情... </summary> 基于之前的命令: - 不使用适配器的变体: 传入 `--ds_factor_ff=0 --ds_factor_attn=0` - UnFrozenBiLM变体: 传入 `--ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0` - 无语言初始化的UnFrozenBiLM变体: `--ft_lm --ft_mlm --scratch --ds_factor_ff=0 --ds_factor_attn=0` - 其他语言模型: 传入 `--model_name=bert-large-uncased` 或 `--model_name=bert-base-uncased` 以使用BERT-Base或BERT-Large代替Deberta-V2-XLarge - 仅文本: 传入 `--no_video` 且不传入 `--load` - 无语音: 传入 `--no_context` 以移除语音 - 无后缀: 传入 `--no_context` 且不传入 `--suffix` 参数 </details>

自回归变体

<details> <summary>点击查看详情... </summary> 要在iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA或TGIF-QA FrameQA上评估跨模态训练的基于GPT-J-6B的自回归变体,运行: ``` python -m torch.distributed.launch --nproc_per_node 8 --use_env videoqa_ar.py --test --eval \ --combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zsar<dataset> \ --model_name=gpt-j-6b --batch_size_val=8 --max_tokens=256 --load=<CKPT_PATH> ``` 其他语言模型: 传入 `--model_name=gpt-neo-1p3b --batch_size_val=32` 或 `--model_name=gpt-neo-2p7b --batch_size_val=16` 以使用GPT-Neo-1.3B或GPT-Neo-2.7B代替GPT-J-6B </details>

CLIP基准

<details> <summary>点击查看详情... </summary> 要在LSMDC-FiB、iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA或TGIF-QA FrameQA上运行CLIP基准,运行: ``` python -m torch.distributed.launch --nproc_per_node 8 --use_env videoqa_clip.py --test --eval \ --combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zsclip<dataset> \ --batch_size_val=16 --max_feats=1 ``` </details>

多项选择视频问答

FrozenBiLM

要在How2QA或TVQA上评估跨模态训练的FrozenBiLM,运行:

python -m torch.distributed.launch --nproc_per_node 8 --use_env mc.py --eval \ 
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zs<dataset> \ 
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size_val=32 --max_tokens=512 --load=<CKPT_PATH>

基线模型

<details> <summary>点击查看详情... </summary> 基于上一个命令: - 不使用适配器的变体: 传入 `--ds_factor_ff=0 --ds_factor_attn=0` - UnFrozenBiLM 变体: 传入 `--ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0` - 无语言初始化的 UnFrozenBiLM 变体: `--ft_lm --ft_mlm --scratch --ds_factor_ff=0 --ds_factor_attn=0` - 其他语言模型: 传入 `--model_name=bert-large-uncased` 或 `--model_name=bert-base-uncased` 以使用 BERT-Base 或 BERT-Large 代替 Deberta-V2-XLarge - 仅文本: 传入 `--no_video` 且不使用 `--load` - 无语音: 传入 `--no_context` 以移除语音 </details>

CLIP 基线模型

<details> <summary>点击查看详情... </summary> 在 How2QA 或 TVQA 上运行 CLIP 基线模型: ``` python -m torch.distributed.launch --nproc_per_node 8 --use_env mc_clip.py --test --eval \ --combine_datasets <dataset> --combine_datasets_val <dataset> \ --save_dir=zsclip<dataset> --batch_size_val=8 --max_feats=1 ``` </details>

全监督视频问答

填空型和开放式视频问答

要在 LSMDC-FiB、iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA 或 TGIF-QA FrameQA 上微调经过跨模态训练的 FrozenBiLM,请运行:

python -m torch.distributed.launch --nproc_per_node 4 --use_env videoqa.py \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=ft<dataset> \
--lr=5e-5 --schedule=linear_with_warmup --load=<CKPT_PATH> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size=8 --batch_size_val=32 --max_tokens 256 --epochs=20

对于 UnFrozenBiLM 变体,传入 --ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0

多项选择视频问答

要在 How2QA 或 TVQA 上微调经过跨模态训练的 FrozenBiLM,请运行:

python -m torch.distributed.launch --nproc_per_node 8 --use_env mc.py \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=ft<dataset> \
--lr=5e-5 --schedule=linear_with_warmup --load=<CKPT_PATH> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size=2 --batch_size_val=8 --max_tokens=256 --epochs=20 

对于 UnFrozenBiLM 变体,传入 --ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0 --batch_size=1

小样本视频问答

对于小样本视频问答,我们从训练数据框文件中采样一部分,并更改 --<dataset>_train_csv_path。 论文中使用的随机子集可在此处下载。

视频问答演示

使用训练好的检查点,您还可以使用自选的视频文件和问题运行视频问答示例。为此,请使用(答案词汇表来自 msrvtt_vocab_path):

python demo_videoqa.py --combine_datasets msrvtt --combine_datasets_val msrvtt \
--suffix="." --max_tokens=256 --ds_factor_ff=8 --ds_factor_attn=8 \
--load=<CKPT_PATH> --msrvtt_vocab_path=<VOCAB_PATH> \
--question_example <question> --video_example <video_path>

此演示可在至少有 4 个物理核心的 CPU 上运行。为此,请使用 --device='cpu'。请注意,此演示不使用语音输入,因为这需要使用现成的 ASR 提取器。

致谢

Transformer 模型的实现受到 Hugging Face 的 transformers 库的启发。 特征提取代码受到 Just Ask 的启发。

许可证

本代码根据 Apache License 2.0 发布。 论文中使用的数据集许可证可在以下链接获取: iVQA, MSRVTT-QA, MSVD-QA, ActivityNet-QA, How2QATVQA

引用

如果您觉得这项工作有用,请考虑给这个仓库加星,并按以下方式引用我们的论文:

@inproceedings{yang2022frozenbilm,
title = {Zero-Shot Video Question Answering via Frozen Bidirectional Language Models},
author = {Antoine Yang and Antoine Miech and Josef Sivic and Ivan Laptev and Cordelia Schmid},
booktitle={NeurIPS}
year = {2022}}

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

聊天机器人AI助手热门AI工具AI对话
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多