FrozenBiLM是一种新的视频问答模型,基于冻结的双向语言模型构建。FrozenBiLM在无需手动标注(零样本)或有限训练数据(少样本)的情况下表现出色,同时在标准数据集上训练时(全监督)也具有竞争力。
本代码库提供了我们FrozenBiLM论文(NeurIPS 2022)的代码,包括:
要安装所需依赖,请运行:
conda create -n frozenbilm_env python=3.8
conda activate frozenbilm_env
conda install pytorch==1.8.1 torchvision==0.9.1 cudatoolkit=11.1 -c pytorch -c nvidia
pip install -r requirements.txt
您可以在args.py
中填写全局路径。
要使用给定的预训练文本语言模型,您应该从Hugging Face Hub下载相应的权重并将它们放在TRANSFORMERS_CACHE
中。
如果您希望快速开始视频问答训练或推理。
要下载预训练检查点、预处理数据、ASR和视觉特征,请运行:
bash download/download_checkpoints.sh <MODEL_DIR>
bash download/download_downstream.sh <DATA_DIR>
如果您在使用gshell时遇到问题,可以在这里访问处理过的数据,在这里访问检查点。
模型大约需要8GB,数据需要12GB。
请注意,由于存储限制,大多数预训练检查点仅包含更新后的参数(而不包含冻结的参数)。
这意味着在使用提供的检查点时,您需要确保已正确从Hugging Face下载了所选语言模型的权重。
为了完整性,frozenbilm.pth
、frozenbilm_bertbase_noadapter.pth
和frozenbilm_bertlarge_noadapter.pth
包含所有参数。
另外请注意,由于存储问题,我们不公开托管WebVid10M数据集的视觉特征。
LSMDC-FiB 从数据集提供者下载注释和视频。
注释应位于<DATA_DIR>/LSMDC
。
TGIF-FrameQA 从数据集提供者下载注释和GIF。
注释应位于<DATA_DIR>/TGIF-QA
。
How2QA 从数据集提供者下载注释和视频。
注释应位于<DATA_DIR>/How2QA
。
TVQA 从数据集提供者下载注释和视频。
注释应位于<DATA_DIR>/TVQA
。
对于iVQA、MSRVTT-QA、MSVD-QA和ActivityNet-QA,我们使用Just Ask的预处理文件,并将 它们下载到<DATA_DIR>/iVQA
、<DATA_DIR>/MSRVTT-QA
、<DATA_DIR>/MSVD-QA
和<DATA_DIR>/ActivityNet-QA
。
要下载自动语音字幕,我们使用youtube-dl,除了LSMDC、How2QA和TVQA,这些数据集的作者提供了字幕。
然后,我们将数据集中每个视频的vtt文件转换为一个pickle文件subtitles.pkl
,其中包含一个字典,将每个video_id映射到一个包含start、end和text键的字典,对应于相应video_id中的语音。
合并文件 要将提取的特征合并为每个下游数据集的单个文件,请使用:
python extract/merge_features.py --folder <特征路径> \
--output_path <默认数据集目录>/clipvitl14.pth --dataset <数据集>
对于WebVid10M,您可以将特征保留在单独的文件中(每个视频一个文件),因为数据集太大,无法将特征存储在单个文件中。 最好将这些特征放在SSD上,以加快训练期间的实时读取速度。
训练数据 | LSMDC | iVQA | MSRVTT-QA | MSVD-QA | ActivityNet-QA | TGIF-QA | How2QA | TVQA | 链接 | 大小 |
---|---|---|---|---|---|---|---|---|---|---|
WebVid10M | 51.5 | 26.8 | 16.7 | 33.8 | 25.9 | 41.9 | 58.4 | 59.7 | Drive | 3.7GB(包括冻结权重) |
WebVid10M + LSMDC | 63.5 | Drive | 114MB | |||||||
WebVid10M + iVQA | 39.6 | Drive | 114MB | |||||||
WebVid10M + MSRVTT-QA | 47.0 | Drive | 114MB | |||||||
WebVid10M + MSVD-QA | 54.8 | Drive | 114MB | |||||||
WebVid10M + ActivityNet-QA | 43.2 | Drive | 114MB | |||||||
WebVid10M + TGIF-QA | 68.6 | Drive | 114MB | |||||||
WebVid10M + How2QA | 86.3 | Drive | 114MB | |||||||
WebVid10M + TVQA | 82.0 | Drive | 114MB |
请注意,在下游数据集的10%或1%上微调的检查点(少样本设置)也可以在这里访问。 使用BERT-Base或BERT-Large语言模型(不带适配器)而不是DeBERTa的变体也在此文件夹中。
要在WebVid10M上训练FrozenBiLM,请运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env main.py \
--combine_datasets webvid --combine_datasets_val webvid --save_dir=trainwebvid \
--lr=3e-5 --ds_factor_ff=8 --ds_factor_attn=8 \
--batch_size=16 --batch_size_val=16 --epochs=2 \
要在LSMDC-FiB、iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA或TGIF-QA FrameQA上评估跨模态训练的FrozenBiLM,运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env videoqa.py --test --eval \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zs<dataset> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size_val=32 --max_tokens=256 --load=<CKPT_PATH> --<dataset>_vocab_path=$DATA_DIR/<dataset>/vocab1000.json
要在How2QA或TVQA上评估跨模态训练的FrozenBiLM,运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env mc.py --eval \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=zs<dataset> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size_val=32 --max_tokens=512 --load=<CKPT_PATH>
要在 LSMDC-FiB、iVQA、MSRVTT-QA、MSVD-QA、ActivityNet-QA 或 TGIF-QA FrameQA 上微调经过跨模态训练的 FrozenBiLM,请运行:
python -m torch.distributed.launch --nproc_per_node 4 --use_env videoqa.py \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=ft<dataset> \
--lr=5e-5 --schedule=linear_with_warmup --load=<CKPT_PATH> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size=8 --batch_size_val=32 --max_tokens 256 --epochs=20
对于 UnFrozenBiLM 变体,传入 --ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0
。
要在 How2QA 或 TVQA 上微调经过跨模态训练的 FrozenBiLM,请运行:
python -m torch.distributed.launch --nproc_per_node 8 --use_env mc.py \
--combine_datasets <dataset> --combine_datasets_val <dataset> --save_dir=ft<dataset> \
--lr=5e-5 --schedule=linear_with_warmup --load=<CKPT_PATH> \
--ds_factor_ff=8 --ds_factor_attn=8 --suffix="." \
--batch_size=2 --batch_size_val=8 --max_tokens=256 --epochs=20
对于 UnFrozenBiLM 变 体,传入 --ft_lm --ft_mlm --ds_factor_ff=0 --ds_factor_attn=0 --batch_size=1
。
对于小样本视频问答,我们从训练数据框文件中采样一部分,并更改 --<dataset>_train_csv_path
。
论文中使用的随机子集可在此处下载。
使用训练好的检查点,您还可以使用自选的视频文件和问题运行视频问答示例。为此,请使用(答案词汇表来自 msrvtt_vocab_path):
python demo_videoqa.py --combine_datasets msrvtt --combine_datasets_val msrvtt \
--suffix="." --max_tokens=256 --ds_factor_ff=8 --ds_factor_attn=8 \
--load=<CKPT_PATH> --msrvtt_vocab_path=<VOCAB_PATH> \
--question_example <question> --video_example <video_path>
此演示可在至少有 4 个物理核心的 CPU 上运行。为此,请使用 --device='cpu'
。请注意,此演示不使用语音输入,因为这需要使用现成的 ASR 提取器。
Transformer 模型的实现受到 Hugging Face 的 transformers 库的启发。 特征提取代码受到 Just Ask 的启发。
本代码根据 Apache License 2.0 发布。 论文中使用的数据集许可证可在以下链接获取: iVQA, MSRVTT-QA, MSVD-QA, ActivityNet-QA, How2QA 和 TVQA。
如果您觉得这项工作有用,请考虑给这个仓库加星,并按以下方式引用我们的论文:
@inproceedings{yang2022frozenbilm,
title = {Zero-Shot Video Question Answering via Frozen Bidirectional Language Models},
author = {Antoine Yang and Antoine Miech and Josef Sivic and Ivan Laptev and Cordelia Schmid},
booktitle={NeurIPS}
year = {2022}}
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大 语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号