
FrozenBiLM是一种新的视频问答模型,基于冻结的双向语言模型构建。FrozenBiLM在无需手动标注(零样本)或有限训练数据(少样本)的情况下表现出色,同时在标准数据集上训练时(全监督)也具有竞争力。
本代码库提供了我们FrozenBiLM论文(NeurIPS 2022)的代码,包括:
要安装所需依赖,请运行:
conda create -n frozenbilm_env python=3.8
conda activate frozenbilm_env
conda install pytorch==1.8.1 torchvision==0.9.1 cudatoolkit=11.1 -c pytorch -c nvidia
pip install -r requirements.txt
您可以在args.py中填写全局路径。
要使用给定的预训练文本语言模型,您应该从Hugging Face Hub下载相应的权重并将它们放在TRANSFORMERS_CACHE中。
如果您希望快速开始视频问答训练或推理。
要下载预训练检查点、预处理数据、ASR和视觉特征,请运行:
bash download/download_checkpoints.sh <MODEL_DIR>
bash download/download_downstream.sh <DATA_DIR>
如果您在使用gshell时遇到问题,可以在这里访问处理过的数据,在这里访问检查点。
模型大约需要8GB,数据需要12GB。
请注意,由于存储限制,大多数预训练检查点仅包含更新后的参数(而不包含冻结的参数)。
这意味着在使用提供的检查点时,您需要确保已正确从Hugging Face下载了所选语言模型的权重。
为了完整性,frozenbilm.pth、frozenbilm_bertbase_noadapter.pth和frozenbilm_bertlarge_noadapter.pth包含所有参数。
另外请注意,由于存储问题,我们不公开托管WebVid10M数据集的视觉特征。
LSMDC-FiB 从数据集提供者下载注释和视频。
注释应位于<DATA_DIR>/LSMDC。
TGIF-FrameQA 从数据集提供者下载注释和GIF。
注释应位于<DATA_DIR>/TGIF-QA。
How2QA 从数据集提供者下载注释和视频。
注释应位于<DATA_DIR>/How2QA。
TVQA 从数据集提供者下载注释和视频。
注释应位于<DATA_DIR>/TVQA。
对于iVQA、MSRVTT-QA、MSVD-QA和ActivityNet-QA,我们使用Just Ask的预处理文件,并将 它们下载到<DATA_DIR>/iVQA、<DATA_DIR>/MSRVTT-QA、<DATA_DIR>/MSVD-QA和<DATA_DIR>/ActivityNet-QA。
要下载自动语音字幕,我们使用youtube-dl,除了LSMDC、How2QA和TVQA,这些数据集的作者提供了字幕。
然后,我们将数据集中每个视频的vtt文件转换为一个pickle文件subtitles.pkl,其中包含一个字典,将每个video_id映射到一个包含start、end和text键的字典,对应于相应video_id中的语音。
合并文件 要将提取的特征合并为每个下游数据集的单个文件,请使用:
python extract/merge_features.py --folder <特征路径> \
--output_path <默认数据集目录>/clipvitl14.pth --dataset <数据集>
对于WebVid10M,您可以将特征保留在单独的文件中(每个视频一个文件),因为数据集太大,无法将特征存储在单个文件中。 最好将这些特征放在SSD上,以加快训练期间的实时读取速度。
| 训练数据 | LSMDC | iVQA | MSRVTT-QA | MSVD-QA | ActivityNet-QA | TGIF-QA | How2QA | TVQA | 链接 | 大小 |
|---|---|---|---|---|---|---|---|---|---|---|
| WebVid10M | 51.5 | 26.8 | 16.7 | 33.8 | 25.9 | 41.9 | 58.4 | 59.7 | Drive | 3.7GB(包括冻结权重) |
| WebVid10M + LSMDC | 63.5 | Drive | 114MB | |||||||
| WebVid10M + iVQA | 39.6 | Drive | 114MB | |||||||
| WebVid10M + MSRVTT-QA | 47.0 | Drive | 114MB | |||||||
| WebVid10M + MSVD-QA | 54.8 | Drive | 114MB | |||||||
| WebVid10M + ActivityNet-QA | 43.2 | Drive | 114MB | |||||||
| WebVid10M + TGIF-QA | 68.6 | Drive | 114MB | |||||||
| WebVid10M + How2QA | 86.3 | Drive | 114MB | |||||||
| WebVid10M + TVQA | 82.0 | Drive | 114MB |
请注意,在下游数据集的10%或1%上微调的检查点(少样本设置)也可以在这里访问。 使用BERT-Base或BERT-Large语言模型(不带适配器)而不是DeBERTa的变体也在此文件夹中。
要在WebVid10M上训练FrozenBiLM,请运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env main.py \
--combine_datasets webvid --combine_datasets_val webvid --save_dir=trainwebvid \
--lr=3e-5 --ds_factor_ff=8 --ds_factor_attn=8 \
--batch_size=16 --batch_size_val=16 --epochs=2 \
要在LSMDC-FiB、iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA或TGIF-QA FrameQA上评估跨模态训练的FrozenBiLM,运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env videoqa.py --test --eval \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zs<dataset> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size_val=32 --max_tokens=256 --load=<CKPT_PATH> --<dataset>_vocab_path=$DATA_DIR/<dataset>/vocab1000.json
要在How2QA或TVQA上评估跨模态训练的FrozenBiLM,运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env mc.py --eval \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zs<dataset> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size_val=32 --max_tokens=512 --load=<CKPT_PATH>
要在 LSMDC-FiB、iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA 或 TGIF-QA FrameQA 上微调经过跨模态训练的 FrozenBiLM,请运行:
python -m torch.distributed.launch --nproc_per_node 4 --use_env videoqa.py \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=ft<dataset> \
--lr=5e-5 --schedule=linear_with_warmup --load=<CKPT_PATH> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size=8 --batch_size_val=32 --max_tokens 256 --epochs=20
对于 UnFrozenBiLM 变体,传入 --ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0。
要在 How2QA 或 TVQA 上微调经过跨模态训练的 FrozenBiLM,请运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env mc.py \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=ft<dataset> \
--lr=5e-5 --schedule=linear_with_warmup --load=<CKPT_PATH> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size=2 --batch_size_val=8 --max_tokens=256 --epochs=20
对于 UnFrozenBiLM 变 体,传入 --ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0 --batch_size=1。
对于小样本视频问答,我们从训练数据框文件中采样一部分,并更改 --<dataset>_train_csv_path。
论文中使用的随机子集可在此处下载。
使用训练好的检查点,您还可以使用自选的视频文件和问题运行视频问答示例。为此,请使用(答案词汇表来自 msrvtt_vocab_path):
python demo_videoqa.py --combine_datasets msrvtt --combine_datasets_val msrvtt \
--suffix="." --max_tokens=256 --ds_factor_ff=8 --ds_factor_attn=8 \
--load=<CKPT_PATH> --msrvtt_vocab_path=<VOCAB_PATH> \
--question_example <question> --video_example <video_path>
此演示可在至少有 4 个物理核心的 CPU 上运行。为此,请使用 --device='cpu'。请注意,此演示不使用语音输入,因为这需要使用现成的 ASR 提取器。
Transformer 模型的实现受到 Hugging Face 的 transformers 库的启发。 特征提取代码受到 Just Ask 的启发。
本代码根据 Apache License 2.0 发布。 论文中使用的数据集许可证可在以下链接获取: iVQA, MSRVTT-QA, MSVD-QA, ActivityNet-QA, How2QA 和 TVQA。
如果您觉得这项工作有用,请考虑给这个仓库加星,并按以下方式引用我们的论文:
@inproceedings{yang2022frozenbilm,
title = {Zero-Shot Video Question Answering via Frozen Bidirectional Language Models},
author = {Antoine Yang and Antoine Miech and Josef Sivic and Ivan Laptev and Cordelia Schmid},
booktitle={NeurIPS}
year = {2022}}


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成 文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、 自主完成、并且交付结果的AI智能体。


AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。


一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作


AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号