Tao Wang,Kaihao Zhang,Tianrun Shen,Wenhan Luo,Bjorn Stenger,Tong Lu
摘要: 随着光学传感器质量的提高,处理大规模图像的需求日益增长。特别是设备捕捉超高清(UHD)图像和视频的能力对图像处理流程提出了新的要求。 在本文中,我们考虑了低光图像增强(LLIE)任务,并引入了一个由4K和8K分辨率图像组成的大规模数据库。我们进行了系统的基准测试研究,并对当前的LLIE 算法进行了比较。作为第二个贡献,我们引入了LLFormer,一种基于transformer的低光增强方法。LLFormer的核心组件是基于轴的多头自注意力和跨层注意力融合块,显著 将复杂度降低到线性水平。在新数据集以及现有公开数据集上的大量实验表明,LLFormer的性能优于最先进的方法。我们还表明,使用在我们的基准上训练的现有LLIE方法作为 预处理步骤显著提高了下游任务的性能,例如在低光条件下的人脸检测。源代码和预训练模型可在https://github.com/TaoWangzj/LLFormer获取。
本仓库包含我们论文的数据集、代码和预训练模型。请参考我们的项目页面以快速了解项目概况。

我们创建了一个新的大规模UHD-LLIE数据集,称为UHDLOL,用于对现有LLIE方法的性能进行基准测试并探索UHD-LLIE问题。它由两个子集组成:UHD-LOL4K和UHD-LOL8K。UHD-LOL4K子集包含8,099对4K低光/正常光图像。其中,5,999对图像用于训练,2,100对用于测试。UHD-LOL8K子集包括2,966对8K低光/正常光图像,分为2,029对用于训练,937对用于测试。更多详情请参考我们的项目页面。
我们提出了一种新的基于transformer的UHD-LLIE方法。LLFormer的核心设计包括一个基于轴的transformer块和一个跨层注意力融合块。在前者中,基于轴的多头自注意力机制在通道维度上沿高度和宽度轴依次执行自注意力,以降低计算复杂度,而双门控前馈网络采用门控机制更关注有用的特征。跨层注意力融合块在融合不同层特征时学习注意力权重。


conda create -n LLFormer python=3.7
conda activate LLFormer
conda install pytorch=1.8 torchvision=0.3 cudatoolkit=10.1 -c pytorch
pip install matplotlib scikit-image opencv-python yacs joblib natsort h5py tqdm
git clone https://github.com/TaoWangzj/LLFormer.git
cd LLFormer
cd pytorch-gradual-warmup-lr; python setup.py install; cd ..
您可以使用以下链接下载数据集
我们提供了在不同数据集上预训练的模型:
在UHD-LOL4K上训练的LLFormer [Google云端硬盘 | 百度网盘],使用训练配置文件 ./configs/UHD-LOL4K/train/training_UHD_4K.yaml。
在UHD-LOL8K上训练的LLFormer [Google云端硬盘 | 百度网盘],使用训练配置文件 ./configs/UHD-LOL8K/train/training_UHD_8K.yaml。
在LOL数据集上训练的LLFormer [Google drive | 百度网盘],使用训练配置文件 ./configs/LOL/train/training_LOL.yaml
在MIT-Adobe FiveK数据集上训练的LLFormer [Google drive | 百度网盘],使用训练配置文件 ./configs/MIT-Adobe-FiveK/train/training_MIT_5K.yaml。
我们提供了表2中所有现有方法在LOL和MIT-Adobe FiveK数据集上的视觉结果
您可以按如下方式直接测试预训练模型
# 测试参数 input_dir # 数据路径 result_dir # 结果保存路径 weights # 预训练模型的权重路径
您需要指定数据路径 input_dir、result_dir 和模型路径 weight_path。然后运行
python test.py --input_dir 您的数据路径 --result_dir 您的保存路径 --weights 权重路径
您需要指定数据路径 input_dir、result_dir 和模型路径 weight_path。然后运行
python test_UHD.py --input_dir 您的数据路径 --result_dir 您的保存路径 --weights 权重路径
(由于GPU内存限制,我们建议用户对UHD图像使用基于patch的模式进行测试)
下载UHD-LOL训练和测试数据
从UHD-LOL数据集的全分辨率训练图像中生成图像patch
python scripts/extract_subimages_UHD.py
python train.py -yml_path 您的配置路径
您需要修改配置以适应您自己的训练环境
如果UHDLOL基准和LLFormer对您的研究或工作有帮助,请考虑引用:
@inproceedings{wang2023ultra,
title={Ultra-high-definition low-light image enhancement: A benchmark and transformer-based method},
author={Wang, Tao and Zhang, Kaihao and Shen, Tianrun and Luo, Wenhan and Stenger, Bjorn and Lu, Tong},
booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},
volume={37},
number={3},
pages={2654--2662},
year={2023}
}
@inproceedings{zhang2021benchmarking,
title={Benchmarking ultra-high-definition image super-resolution},
author={Zhang, Kaihao and Li, Dongxu and Luo, Wenhan and Ren, Wenqi and Stenger, Bjorn and Liu, Wei and Li, Hongdong and Yang, Ming-Hsuan},
booktitle={ICCV},
pages={14769--14778},
year={2021}
}
如果您有任何问题,请联系taowangzj@gmail.com
本实现基于以下项目或受其启发:


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号