Zheng Chen、Yulun Zhang、Jinjin Gu、Linghe Kong和Xiaokang Yang,"用于图像超分辨率的递归泛化 Transformer",ICLR,2024
[论文] [arXiv] [补充材料] [可视化结果] [预训练模型]
摘要: Transformer 架构在图像超分辨率(SR)任务中表现出了卓越的性能。由于 Transformer 中自注意力(SA)的二次计算复杂度,现有方法倾向于在局部区域采用 SA 以减少开销。然而,局部设计限制了全局上下文的利用,而这对于准确的图像重建至关重要。在本工作中,我们提出了用于图像 SR 的递归泛化 Transformer (RGT),它可以捕获全局空间信息并适用于高分辨率图像。具体来说,我们提出了递归泛化自注意力(RG-SA)。它递归地将输入特征聚合成具有代表性的特征图,然后利用交叉注意力提取全局信息。同时,注意力矩阵($query$、$key$ 和 $value$)的通道维度进一步缩放以减少通道域中的冗余。此外,我们将 RG-SA 与局部自注意力相结合以增强全局上下文的利用,并提出了混合自适应集 成(HAI)用于模块集成。HAI 允许不同层级(局部或全局)特征之间的直接有效融合。大量实验表明,我们的 RGT 在定量和定性方面都优于最近的最先进方法。
HR | LR | SwinIR | CAT | RGT (ours) |
---|---|---|---|---|
<img src="https://yellow-cdn.veclightyear.com/835a84d5/9d5c7d1f-42df-47b9-9758-8a01fc1d564f.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/f8594954-7520-4d05-a9f9-7eb3d0d464d0.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/41fa2589-2c8c-40ea-93de-5df3a9ede165.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/caff6cc6-f842-4d69-8254-18ec4729f565.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/e6289a42-4e16-43fc-b4cf-74d4f6ccbbdc.png" height=80> |
<img src="https://yellow-cdn.veclightyear.com/835a84d5/820b95ea-e801-4e69-ae7b-d33ef5467295.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/eefd1349-2641-4f71-9a23-3d7c1bde0547.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/369ce38e-05e2-491f-8243-49aa91645de6.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/d083abd2-1b5b-4806-9648-f18782688e67.png" height=80> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/62971752-507c-42c5-a856-bad09f355a31.png" height=80> |
# 克隆 GitHub 仓库并进入默认目录 'RGT'。 git clone https://github.com/zhengchen1999/RGT.git conda create -n RGT python=3.8 conda activate RGT pip install -r requirements.txt -f https://download.pytorch.org/whl/torch_stable.html python setup.py develop
使用的训练和测试集可以按以下方式下载:
训练集 | 测试集 | 可视化结果 |
---|---|---|
DIV2K (800张训练图像,100张验证图像) + Flickr2K (2650张图像) [完整训练数据集 DF2K:Google Drive / 百度网盘] | Set5 + Set14 + BSD100 + Urban100 + Manga109 [完整测试数据集:Google Drive / 百度网盘] | Google Drive / 百度网盘 |
下载训练和测试数据集并将它们放入 datasets/
的相应文件夹中。有关目录结构的详细信息,请参见 datasets。
方法 | 参数量 (M) | FLOPs (G) | PSNR (dB) | SSIM | 模型库 | 可视化结果 |
---|---|---|---|---|---|---|
RGT-S | 10.20 | 193.08 | 27.89 | 0.8347 | Google Drive / 百度网盘 | Google Drive / 百度网盘 |
RGT | 13.37 | 251.07 | 27.98 | 0.8369 | Google Drive / 百度网盘 | Google Drive / 百度网盘 |
性能在 Urban100 (x4) 上报告。FLOPs 的输出尺寸为 3×512×512。
下载训练(DF2K,已处理)和测试(Set5、Set14、BSD100、Urban100、Manga109,已处理)数据集,将它们放在 datasets/
中。
运行以下脚本。训练配置在 options/train/
中。
# RGT-S,输入=64x64,4个GPU python -m torch.distributed.launch --nproc_per_node=4 --master_port=4321 basicsr/train.py -opt options/train/train_RGT_S_x2.yml --launcher pytorch python -m torch.distributed.launch --nproc_per_node=4 --master_port=4321 basicsr/train.py -opt options/train/train_RGT_S_x3.yml --launcher pytorch python -m torch.distributed.launch --nproc_per_node=4 --master_port=4321 basicsr/train.py -opt options/train/train_RGT_S_x4.yml --launcher pytorch # RGT,输入=64x64,4个GPU python -m torch.distributed.launch --nproc_per_node=4 --master_port=4321 basicsr/train.py -opt options/train/train_RGT_x2.yml --launcher pytorch python -m torch.distributed.launch --nproc_per_node=4 --master_port=4321 basicsr/train.py -opt options/train/train_RGT_x3.yml --launcher pytorch python -m torch.distributed.launch --nproc_per_node=4 --master_port=4321 basicsr/train.py -opt options/train/train_RGT_x4.yml --launcher pytorch
训练实验位于experiments/
目录中。
下载预训练的模型并将它们放在experiments/pretrained_models/
目录中。
我们提供了图像超分辨率的预训练模型:RGT-S和RGT(x2、x3、x4)。
下载测试(Set5、Set14、BSD100、Urban100、Manga109)数据集,将它们放在datasets/
目录中。
运行以下脚本。测试配置在options/test/
目录中(例如,test_RGT_x2.yml)。
注1:您可以在YML文件中设置use_chop: True
(默认为False)以对图像进行分块测试。
# 不使用自集成 # RGT-S,复现论文表2中的结果 python basicsr/test.py -opt options/test/test_RGT_S_x2.yml python basicsr/test.py -opt options/test/test_RGT_S_x3.yml python basicsr/test.py -opt options/test/test_RGT_S_x4.yml # RGT,复现论文表2中的结果 python basicsr/test.py -opt options/test/test_RGT_x2.yml python basicsr/test.py -opt options/test/test_RGT_x3.yml python basicsr/test.py -opt options/test/test_RGT_x4.yml
输出结果在results/
目录中。
下载预训练的模型并将它们放在experiments/pretrained_models/
目录中。
我们提供了图像超分辨率的预训练模型:RGT-S和RGT(x2、x3、x4)。
将您的数据集(单个低分辨率图像)放在datasets/single
目录中。该文件夹中已包含一些测试图像。
运行以下脚本。测试配置在options/test/
目录中(例如,test_single_x2.yml)。
注1:默认模型是RGT。您可以通过修改YML文件来使用其他模型,如RGT-S。
注2:您可以在YML文件中设置use_chop: True
(默认为False)以对图像进行分块测试。
# 在您的数据集上测试 python basicsr/test.py -opt options/test/test_single_x2.yml python basicsr/test.py -opt options/test/test_single_x3.yml python basicsr/test.py -opt options/test/test_single_x4.yml
输出结果在results/
目录中。
我们达到了最先进的性能。详细结果可以在论文中找到。
如果您在研究或工作中发现代码有帮助,请引用以下论文。
@inproceedings{chen2024recursive,
title={Recursive Generalization Transformer for Image Super-Resolution},
author={Chen, Zheng and Zhang, Yulun and Gu, Jinjin and Kong, Linghe and Yang, Xiaokang},
booktitle={ICLR},
year={2024}
}
本代码基于BasicSR构建。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动 完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。 支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。