QFormer

QFormer

四边形注意力机制提升视觉Transformer性能

QFormer是一种创新的视觉Transformer模型,采用四边形注意力机制替代传统窗口注意力。该模型通过可学习的四边形回归模块,将默认窗口转换为目标四边形进行计算,从而更好地建模不同形状和方向的目标。在图像分类、目标检测、语义分割和人体姿态估计等多项视觉任务中,QFormer在保持低计算成本的同时,性能显著优于现有的视觉Transformer模型。

Vision Transformer注意力机制计算机视觉图像分类目标检测Github开源项目
<h1 align="center">[TPAMI 2023] 基于四边形注意力的视觉Transformer<a href="https://arxiv.org/abs/2303.15105"><img src="https://yellow-cdn.veclightyear.com/0a4dffa0/db7298d9-dffb-4785-87af-c54f2b312622.svg" ></a></h1> <p align="center"> <h4 align="center">这是论文<a href="https://arxiv.org/abs/2303.15105">基于四边形注意力的视觉Transformer</a>的官方代码库。</h4> <h5 align="center"><em>张启明、张静、徐宇飞、陶大程</em></h5> <p align="center"> <a href="#news">新闻</a> | <a href="#abstract">摘要</a> | <a href="#method">方法</a> | <a href="#usage">使用</a> | <a href="#results">结果</a> | <a href="#statement">声明</a> </p>

当前应用

分类: 分层模型已发布;简单模型即将发布。

目标检测: 即将发布;

语义分割: 即将发布;

人体姿态: 即将发布

新闻

2024年1月24日

  • 分类任务的分层模型代码已发布。

2023年12月30日

  • 论文被IEEE模式分析与机器智能汇刊(TPAMI)接收,影响因子24.314。

2023年3月27日

  • 论文已发布在arxiv上!代码整理完成后将公开发布。

摘要

<p align="left">本代码库包含了论文<a href="https://arxiv.org/abs/2303.15105">基于四边形注意力的视觉Transformer</a>的代码、模型和测试结果,该论文是我们ECCV 2022论文<a href="https://arxiv.org/pdf/2204.08446.pdf">VSA</a>的实质性扩展。我们将基于窗口的注意力机制扩展为一般的四边形公式,并提出了一种新颖的四边形注意力机制。我们采用了端到端可学习的四边形回归模块,该模块预测一个变换矩阵,将默认窗口转换为目标四边形以进行token采样和注意力计算,使网络能够对不同形状和方向的各种目标进行建模,并捕获丰富的上下文信息。通过minor的代码修改和可忽略的额外计算成本,我们的QFormer在各种视觉任务上优于现有的代表性(分层和简单)视觉Transformer,包括分类、目标检测、语义分割和姿态估计。

方法

<figure> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/e0b984d3-a7a7-4f9b-af2e-3897f467a0eb.jpg"> <figcaption align = "center"><b>图1 - 当前设计(手工制作的窗口)与四边形注意力的比较。</b></figcaption> </figure> <figure> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/4ca9ab43-f087-4659-a204-0df88edf7678.jpg"> <figcaption align = "center"><b>图2 - 我们提出的四边形注意力(QA)的流程。</b></figcaption> </figure> <figure> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/880ba495-736b-4821-b025-1004f7514c82.jpg"> <figcaption align = "center"><b>图3 - 四边形注意力中的变换过程。</b></figcaption> </figure> <figure> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/e55487c1-ccf7-4376-8dcc-0d3d86beb7ad.jpg"> <figcaption align = "center"><b>图4 - 我们的简单QFormer<sub>p</sub> (a)和分层QFormer<sub>h</sub> (b)的架构。</b></figcaption> </figure>

使用

要求

  • PyTorch==1.7.1
  • torchvision==0.8.2
  • timm==0.3.2

Apex是可选的,用于更快的训练速度。

git clone https://github.com/NVIDIA/apex
cd apex
pip install -v --disable-pip-version-check --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./

其他要求

pip install opencv-python==4.4.0.46 termcolor==1.1.0 yacs==0.1.8 timm==0.4.9
pip install einops

训练 & 评估

对于ImageNet-1K的分类任务,从头开始训练,运行:

CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 \
python -m torch.distributed.launch \
  --nnodes ${NNODES} \
  --node_rank ${SLURM_NODEID} \
  --master_addr ${MHOST} \
  --master_port 25901 \
  --nproc_per_node 8 \
  ./main.py \
  --cfg configs/swin/qformer_tiny_patch4_window7_224.yaml \
  --data-path ${IMAGE_PATH} \
  --batch-size 128 \
  --tag 1024-dpr20-coords_lambda1e-1 \
  --distributed \
  --coords_lambda 1e-1 \
  --drop_path_rate 0.2 \

对于单GPU训练,运行

python ./main.py \
  --cfg configs/swin/qformer_tiny_patch4_window7_224.yaml \
  --data-path ${IMAGE_PATH} \
  --batch-size 128 \
  --tag 1024-dpr20-coords_lambda1e-1 \
  --coords_lambda 1e-1 \
  --drop_path_rate 0.2 \

要进行评估,运行:

CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 \
python -m torch.distributed.launch \
  --nnodes ${NNODES} \
  --node_rank ${SLURM_NODEID} \
  --master_addr ${MHOST} \
  --master_port 25901 \
  --nproc_per_node 8 \
  ./main.py \
  --cfg configs/swin/qformer_tiny_patch4_window7_224.yaml \
  --data-path ${IMAGE_PATH} \
  --batch-size 128 \
  --tag eval \
  --distributed \
  --resume ${MODEL PATH} \
  --eval

对于单GPU评估, 运行

python ./main.py \
  --cfg configs/swin/qformer_tiny_patch4_window7_224.yaml \
  --data-path ${IMAGE_PATH} \
  --batch-size 128 \
  --tag eval \
  --resume ${MODEL PATH} \
  --eval

结果

简单模型的结果

在ImageNet-1K上使用MAE预训练模型的分类结果

模型分辨率acc@1权重 & 日志
ViT-B + 窗口注意力224x22481.2\
ViT-B + 移位窗口224x22482.0\
QFormer<sub>p</sub>-B224x22482.9即将发布

在COCO上使用MAE预训练模型和Mask RCNN检测器的检测结果,遵循<a href="https://arxiv.org/abs/2203.16527">ViTDet</a>

模型边界框平均精度掩码平均精度参数量权重与日志
ViTDet-B51.645.9111M\
QFormer<sub>p</sub>-B52.346.6111M即将发布

使用MAE预训练模型和UPerNet分割器在ADE20k上的语义分割结果

模型图像尺寸mIoUmIoU*权重与日志
ViT-B + 窗口注意力512x51239.741.8\
ViT-B + 移位窗口注意力512x51241.643.6\
QFormer<sub>p</sub>-B512x51243.645.0即将发布
ViT-B + 窗口注意力640x64040.241.5\
ViT-B + 移位窗口注意力640x64042.343.5\
QFormer<sub>p</sub>-B640x64044.946.0即将发布

使用MAE预训练模型在COCO数据集上的人体姿态估计结果,遵循<a href="https://arxiv.org/abs/2204.12484">ViTPose</a>

注意力机制模型APAP<sub>50</sub>ARAR<sub>50</sub>权重与日志
窗口ViT-B66.487.772.991.9\
移位窗口ViT-B76.490.981.694.5\
四边形ViT-B77.090.982.094.7即将发布
窗口 + 全局ViT-B76.990.882.194.7\
移位窗口 + 全局ViT-B77.290.982.294.7\
四边形 + 全局ViT-B77.491.082.494.9即将发布

层级模型结果

ImageNet-1K主要结果

名称分辨率Top-1准确率Top-5准确率真实Top-1准确率权重与日志
Swin-T224x22481.2\\\
DW-T224x22482.0\\\
Focal-T224x22482.295.9
QFormer<sub>h</sub>-T224x22482.596.287.5模型 & [日志](https://github.com/ViTAE-Transformer/QFormer/blob/main/logs/QFormer-T.txt
Swin-S224x22483.296.2\\
Focal-S224x22483.596.2\\
QFormer<sub>h</sub>-S224x22484.096.888.6模型 & [日志](https://github.com/ViTAE-Transformer/QFormer/blob/main/logs/QFormer-S.txt
Swin-B224x22483.496.5\\
DW-B224x22483.4\\\
Focal-B224x22483.896.5\\
QFormer<sub>h</sub>-B224x22484.196.888.7模型 & [日志](https://github.com/ViTAE-Transformer/QFormer/blob/main/logs/QFormer-B.txt

目标检测结果

Mask R-CNN

骨干网络预训练学习率调度边界框mAP掩码mAP参数量配置文件日志模型
Swin-TImageNet-1K1x43.739.848M\\\
DAT-TImageNet-1K1x44.440.448M\\\
Focal-TImageNet-1K1x44.841.049M\\\
QFormer<sub>h</sub>-TImageNet-1K1x45.941.549M配置文件日志OneDrive
Swin-TImageNet-1K3x46.041.648M\\\
DW-TImageNet-1K3x46.742.449M\\\
DAT-TImageNet-1K3x47.142.448M\\\
DAT-TImageNet-1K3x47.142.448M\\\
QFormer<sub>h</sub>-TImageNet-1K3x47.542.749M配置文件日志OneDrive
Swin-SImageNet-1K3x48.543.369M\\\
Focal-SImageNet-1K3x48.843.871M\\\
DAT-SImageNet-1K3x49.044.069M\\\
QFormer<sub>h</sub>-SImageNet-1K3x49.544.270M配置文件日志OneDrive

Cascade Mask R-CNN

骨干网络预训练学习率调度边界框mAP掩码mAP参数量配置文件日志模型
Swin-TImageNet-1K1x48.141.786M\\\
DAT-TImageNet-1K1x49.142.586M\\\
QFormer<sub>h</sub>-TImageNet-1K1x49.843.087M配置文件日志OneDrive
Swin-TImageNet-1K3x50.243.786M\\\
QFormer<sub>h</sub>-TImageNet-1K3x51.444.787M配置文件日志OneDrive
Swin-SImageNet-1K3x51.945.0107M\\\
QFormer<sub>h</sub>-SImageNet-1K3x52.845.7108M配置文件日志OneDrive

ADE20k语义分割结果

UperNet

骨干网络预训练学习率调度mIoUmIoU*参数量配置日志模型
Swin-TImageNet-1k160k44.545.860M\\\
DAT-TImageNet-1k160k45.546.460M\\\
DW-TImageNet-1k160k45.746.961M\\\
Focal-TImageNet-1k160k45.847.062M\\\
QFormer<sub>h</sub>-TImageNet-1k160k46.948.161M即将推出即将推出即将推出
Swin-SImageNet-1k160k47.649.581M\\\
DAT-SImageNet-1k160k48.349.881M\\\
Focal-SImageNet-1k160k48.050.061M\\\
QFormer<sub>h</sub>-SImageNet-1k160k48.950.382M即将推出即将推出即将推出
Swin-BImageNet-1k160k48.149.7121M\\\
DW-BImageNet-1k160k48.750.3125M\\\
Focal-BImageNet-1k160k49.050.5126M\\\
QFormer<sub>h</sub>-BImageNet-1k160k49.550.6123M即将推出即将推出即将推出

声明

本项目仅供研究使用。如有任何其他问题,请联系 qmzhangzz at hotmail.com

代码基于 Swin 项目。

引用 QFormer、VSA 和 ViTAE

@article{zhang2023vision,
  title={Vision Transformer with Quadrangle Attention},
  author={Zhang, Qiming and Zhang, Jing and Xu, Yufei and Tao, Dacheng},
  journal={arXiv preprint arXiv:2303.15105},
  year={2023}
}
@inproceedings{zhang2022vsa,
  title={VSA: learning varied-size window attention in vision transformers},
  author={Zhang, Qiming and Xu, Yufei and Zhang, Jing and Tao, Dacheng},
  booktitle={Computer Vision--ECCV 2022: 17th European Conference, Tel Aviv, Israel, October 23--27, 2022, Proceedings, Part XXV},
  pages={466--483},
  year={2022},
  organization={Springer}
}
@article{zhang2023vitaev2,
  title={Vitaev2: Vision transformer advanced by exploring inductive bias for image recognition and beyond},
  author={Zhang, Qiming and Xu, Yufei and Zhang, Jing and Tao, Dacheng},
  journal={International Journal of Computer Vision},
  pages={1--22},
  year={2023},
  publisher={Springer}
}
@article{xu2021vitae,
  title={Vitae: Vision transformer advanced by exploring intrinsic inductive bias},
  author={Xu, Yufei and Zhang, Qiming and Zhang, Jing and Tao, Dacheng},
  journal={Advances in Neural Information Processing Systems},
  volume={34},
  year={2021}
}

我们的其他 Transformer 工作

ViTPose:请参见 <a href="https://github.com/ViTAE-Transformer/ViTPose">用于人体姿态估计的基线模型 ViTPose</a>

VSA:请参见 <a href="https://github.com/ViTAE-Transformer/ViTAE-VSA">用于图像分类和目标检测的 ViTAE-Transformer</a>

ViTAE & ViTAEv2:请参见 <a href="https://github.com/ViTAE-Transformer/ViTAE-Transformer">用于图像分类、目标检测和语义分割的 ViTAE-Transformer</a>

抠图:请参见 <a href="https://github.com/ViTAE-Transformer/ViTAE-Transformer-Matting">用于抠图的 ViTAE-Transformer</a>

遥感:请参见 <a href="https://github.com/ViTAE-Transformer/ViTAE-Transformer-Remote-Sensing">用于遥感的 ViTAE-Transformer</a><a href="https://github.com/ViTAE-Transformer/Remote-Sensing-RVSA">推进普通视觉 Transformer 向遥感基础模型发展</a>

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多