LLVIP

LLVIP

针对低光环境的可见光红外配对数据集

LLVIP是一个面向低光环境视觉任务的可见光-红外配对数据集,包含30,976对高质量图像。该数据集涵盖多种场景和光照条件下的行人,可用于图像融合、行人检测和图像转换等计算机视觉应用。LLVIP为低光环境视觉研究提供了宝贵的数据资源,有助于推动相关技术发展,提升夜间和低光照条件下视觉系统的性能。

LLVIP低光照视觉可见光红外配对数据集行人检测图像融合Github开源项目

LLVIP: 一个可见光-红外配对的低光照视觉数据集 访问量

项目主页 | Arxiv论文 | Kaggle比赛 | PWC | 推文

新闻

  • ⚡(2024-1-8): 在LLVIP上预训练的pix2pixGAN已发布 点击此处下载
  • ⚡(2023-2-21): 部分图像的标注已经修正并更新,包括一些遗漏行人的标注,以及对一些不精确标注的优化。更新后的数据集现可从主页这里获取。如需先前版本的标注,请参考这里
  • ⚡(2022-5-24): 我们提供了一个工具箱,用于各种格式转换(xml到yolov5、xml到yolov3、xml到coco)
  • ⚡(2022-3-27): 我们发布了一些原始数据(未配准的图像对和视频)用于进一步研究,包括图像配准。请访问主页获取更新。(2022-3-28 我们更新了LLVIP原始数据的百度网盘链接,新链接下载的数据支持在windowsmacos下解压。原链接仅支持windows。)
  • ⚡(2021-12-25): 我们基于部分LLVIP数据集发布了一个Kaggle社区竞赛"在黑暗中寻找人!"欢迎参与并享受其中!注意:仅允许使用我们上传到Kaggle平台的可见光图像数据(禁止使用LLVIP中的红外图像或其他外部数据)
  • ⚡(2021-11-24): 行人检测模型已发布
  • ⚡(2021-09-01): 我们已发布数据集,请访问主页这里获取数据集。(注意我们从原始数据集中移除了一些低质量图像,此版本共有30976张图像。)

图1-LR


数据集下载:

主页数据集下载


引用

如果您在研究中使用了此数据,请引用我们的论文 LLVIP: A Visible-infrared Paired Dataset for Low-light Vision:

@inproceedings{jia2021llvip,
  title={LLVIP: A visible-infrared paired dataset for low-light vision},
  author={Jia, Xinyu and Zhu, Chuang and Li, Minzhen and Tang, Wenqi and Zhou, Wenli},
  booktitle={Proceedings of the IEEE/CVF International Conference on Computer Vision},
  pages={3496--3504},
  year={2021}
}

@misc{https://doi.org/10.48550/arxiv.2108.10831,
  doi = {10.48550/ARXIV.2108.10831}, 
  url = {https://arxiv.org/abs/2108.10831},
  author = {Jia, Xinyu and Zhu, Chuang and Li, Minzhen and Tang, Wenqi and Liu, Shengjie and Zhou, Wenli}, 
  keywords = {Computer Vision and Pattern Recognition (cs.CV), Artificial Intelligence (cs.AI), FOS: Computer and information sciences, FOS: Computer and information sciences},
  title = {LLVIP: A Visible-infrared Paired Dataset for Low-light Vision},
  publisher = {arXiv},
  year = {2021},
  copyright = {arXiv.org perpetual, non-exclusive license}
}
<h2> <p align="center"> 图像融合 </p> </h2>

基线方法

FusionGAN

准备工作

  • 安装依赖
    git clone https://github.com/bupt-ai-cz/LLVIP.git cd LLVIP/FusionGAN # 使用anaconda创建虚拟环境 conda create -n FusionGAN python=3.7 conda activate FusionGAN conda install matplotlib scipy==1.2.1 tensorflow-gpu==1.14.0 pip install opencv-python sudo apt install libgl1-mesa-glx
  • 文件结构
    FusionGAN
    ├── ...
    ├── Test_LLVIP_ir
    |   ├── 190001.jpg
    |   ├── 190002.jpg
    |   └── ...
    ├── Test_LLVIP_vi
    |   ├── 190001.jpg
    |   ├── 190002.jpg
    |   └── ...
    ├── Train_LLVIP_ir
    |   ├── 010001.jpg
    |   ├── 010002.jpg
    |   └── ...
    └── Train_LLVIP_vi
        ├── 010001.jpg
        ├── 010002.jpg
        └── ...
    

训练

python main.py --epoch 10 --batch_size 32

更多训练选项请参见main.py

测试

python test_one_image.py

请记得将预训练模型放在checkpoint文件夹中,并在test_one_image.py中更改相应的模型名称。 如需获取完整的LLVIP数据集,请访问https://bupt-ai-cz.github.io/LLVIP/。

Densefuse

准备工作

  • 安装依赖
    git clone https://github.com/bupt-ai-cz/LLVIP cd LLVIP/imagefusion_densefuse # 使用anaconda创建虚拟环境 conda create -n Densefuse python=3.7 conda activate Densefuse conda install scikit-image scipy==1.2.1 tensorflow-gpu==1.14.0
  • 文件结构
    imagefusion_densefuse
    ├── ...
    ├──datasets
    |  ├──010001_ir.jpg
    |  ├──010001_vi.jpg
    |  └── ...
    ├──test
    |  ├──190001_ir.jpg
    |  ├──190001_vi.jpg
    |  └── ...
    └──LLVIP
       ├── infrared
       |   ├──train
       |   |  ├── 010001.jpg
       |   |  ├── 010002.jpg
       |   |  └── ...
       |   └──test
       |      ├── 190001.jpg
       |      ├── 190002.jpg
       |      └── ...
       └── visible
           ├──train
           |   ├── 010001.jpg
           |   ├── 010002.jpg
           |   └── ...
           └── test
               ├── 190001.jpg
               ├── 190002.jpg
               └── ...
    

训练与测试

python main.py

请在main.py中检查并修改训练/测试选项。在训练/测试之前,您需要重命名LLVIP数据集中的图像并将它们放在指定的文件夹中。我们提供了一个名为rename.py的脚本,用于重命名图像并将它们保存在datasetstest文件夹中。检查点保存在./models/densefuse_gray/中。如需获取完整的LLVIP数据集,请访问https://bupt-ai-cz.github.io/LLVIP/。

IFCNN

请访问https://github.com/uzeful/IFCNN。

<h2> <p align="center"> 行人检测 </p> </h2>

基准模型

Yolov5

准备工作

Linux和Python>=3.6.0

  • 安装依赖

    git clone https://github.com/bupt-ai-cz/LLVIP.git cd LLVIP/yolov5 pip install -r requirements.txt
  • 文件结构

    LLVIP的训练集用于训练yolov5模型,测试集用于验证yolov5模型。

    yolov5
    ├── ...
    └──LLVIP
       ├── labels
       |   ├──train
       |   |  ├── 010001.txt
       |   |  ├── 010002.txt
       |   |  └── ...
       |   └──val
       |      ├── 190001.txt
       |      ├── 190002.txt
       |      └── ...
       └── images
           ├──train
           |   ├── 010001.jpg
           |   ├── 010002.jpg
           |   └── ...
           └── val
               ├── 190001.jpg
               ├── 190002.jpg
               └── ...
    

    我们提供了一个工具箱,用于将注释文件转换为yolov5格式的txt文件。

训练

python train.py --img 1280 --batch 8 --epochs 200 --data LLVIP.yaml --weights yolov5l.pt --name LLVIP_export

更多训练选项请参见train.py。预训练模型yolov5l.pt可以从这里下载。训练好的模型将保存在./runs/train/LLVIP_export/weights文件夹中。

测试

python val.py --data --img 1280 --weights last.pt --data LLVIP.yaml

请记得将训练好的模型放在与val.py相同的文件夹中。

我们训练好的模型可以从以下链接下载:Google-Drive-Yolov5-model百度网盘-Yolov5-model(提取码:qepr)

结果

我们在更新后的数据集(30976张图像)上重新训练并测试了Yolov5l和Yolov3。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/ebc3a4cd-53d1-44ce-a90d-4fc3eadfc1b2.jpg" height="130" width="700"> </div> 其中AP表示IoU阈值从0.5到0.95(间隔为0.05)的平均精度。 <div align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/b0fa749d-79df-4843-89a6-1b54bbcd47bc.png" height="510" width="700"> </div>

上图显示了不同IoU阈值下AP的变化。当IoU阈值高于0.7时,AP值迅速下降。此外,红外图像突出显示行人,在检测任务中取得了比可见光图像更好的效果,这不仅证明了红外图像的必要性,还表明在低光照条件下可见光图像行人检测算法的性能不够理想。

我们还根据测试结果计算了对数平均漏检率,并绘制了漏检率-FPPI曲线。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/a9669bda-e3a6-4da3-8d98-6e7211dc4c28.jpeg" height="110" width="700"> </div> <div align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/de506fb7-c3d3-405a-938e-2154dfaf634d.png" height="510" width="700"> </div> <h2> <p align="center"> 图像到图像转换 </p> </h2>

基准

pix2pixGAN

准备工作

  • 安装依赖
    cd pix2pixGAN pip install -r requirements.txt
  • 准备数据集
  • 文件结构
    pix2pixGAN
    ├── ...
    └──datasets
       ├── ...
       └──LLVIP
          ├── train
          |   ├── 010001.jpg
          |   ├── 010002.jpg
          |   ├── 010003.jpg
          |   └── ...
          └── test
              ├── 190001.jpg
              ├── 190002.jpg
              ├── 190003.jpg
              └── ...
    

训练

python train.py --dataroot ./datasets/LLVIP --name LLVIP --model pix2pix --direction AtoB --batch_size 8 --preprocess scale_width_and_crop --load_size 320 --crop_size 256 --gpu_ids 0 --n_epochs 100 --n_epochs_decay 100

测试

python test.py --dataroot ./datasets/LLVIP --name LLVIP --model pix2pix --direction AtoB --gpu_ids 0 --preprocess scale_width_and_crop --load_size 320 --crop_size 256

更多训练和测试选项请参见 ./pix2pixGAN/options

<img src='https://yellow-cdn.veclightyear.com/0a4dffa0/cee5fe4b-9645-43a9-935c-011042932ed5.gif' align="right" height=192 width=448> <br>

结果

我们在更新后的数据集(30976张图像)上重新训练和测试了pix2pixGAN。生成器的结构是unet256,判别器的结构是默认的基本PatchGAN。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/cb38f2ff-c157-4474-abf8-e3fd51327f75.jpeg" height="100" width="700"> </div> <div align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/755e9a23-a4f7-4e23-a197-a6c0d29f0593.png" height="610" width="700"> </div>

许可证

LLVIP数据集免费提供给学术和非学术实体用于非商业目的,如学术研究、教学、科学出版或个人实验。在您同意我们的许可条款的情况下,允许使用该数据。

征集贡献

欢迎指出数据标注中的错误。如果您想修改标签,请参考标注教程,并将修正后的标签文件发送给我们。

我们也欢迎更多的标注形式(如分割),请与我们联系。

致谢

感谢XueZ-phd对LLVIP数据集的贡献。他纠正了数据集中不完善的标注。

联系方式

电子邮件:shengjie.Liu@bupt.edu.cn, czhu@bupt.edu.cn, jiaxinyujxy@qq.com, tangwenqi@bupt.edu.cn

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多