flash-diffusion

flash-diffusion

用于加速条件扩散模型的高效蒸馏技术

Flash Diffusion是一种用于加速预训练扩散模型图像生成的蒸馏方法。该技术高效、快速、通用且兼容LoRA,在COCO数据集上实现了少步骤图像生成的先进性能。Flash Diffusion只需几小时GPU训练时间和较少可训练参数,适用于文本生成图像、图像修复、换脸和超分辨率等多种任务。它支持UNet和DiT等不同骨干网络,能够显著减少采样步骤,同时保持高质量的图像生成效果。

Flash Diffusion图像生成扩散模型LoRA加速技术Github开源项目

⚡ 闪电扩散 ⚡

本仓库是论文《闪电扩散:加速任何条件扩散模型实现少步图像生成》的官方实现。

<p align="center"> <a href="http://arxiv.org/abs/2406.02347"> <img src='https://img.shields.io/badge/论文-2406.02347-green' /> </a> <a href="https://gojasper.github.io/flash-diffusion-project/"> <img src='https://img.shields.io/badge/项目-页面-blue' /> </a> <a href='https://creativecommons.org/licenses/by-nd/4.0/legalcode'> <img src="https://img.shields.io/badge/许可证-CC.BY.NC-purple" /> </a> <br> <a href="https://huggingface.co/spaces/jasperai/flash-diffusion"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20演示-FlashPixart-orange' /> </a> <a href="https://huggingface.co/spaces/jasperai/flash-sd3"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20演示-FlashSD3-orange' /> </a> <a href="https://huggingface.co/spaces/jasperai/flash-lora"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20演示-FlashLoRAs-orange' /> </a> <br> <a href="https://huggingface.co/jasperai/flash-sd"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashSD-yellow' /> </a> <a href="https://huggingface.co/jasperai/flash-sdxl"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashSDXL-yellow' /> </a> <a href="https://huggingface.co/jasperai/flash-pixart"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashPixart-yellow' /> </a> <a href="https://huggingface.co/jasperai/flash-sd3"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashSD3-yellow' /> </a> </a> <a href="https://huggingface.co/jasperai/flash-sdxl/tree/main/comfy"> <img src='https://img.shields.io/badge/Comfy-FlashSDXL-black' /> </a> </p> <figure> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/e2bf9ed2-ef0b-4d57-b956-112718eb942c.jpg"> <figcaption> <p align="center"> <b>使用4个NFE生成的图像</b> </p> </figcaption> </p> </figure>

在本论文中,我们提出了一种高效、快速、多功能且与LoRA兼容的蒸馏方法来加速预训练扩散模型的生成:闪电扩散。该方法在COCO 2014和COCO 2017数据集上的少步图像生成方面,在FID和CLIP-Score方面达到了最先进的性能,同时仅需要几个GPU小时的训练,且可训练参数比现有方法更少。除了其高效性外,该方法的多功能性还体现在多个任务中,如文本到图像、图像修复、换脸、超分辨率,以及使用不同的扩散模型骨干网络,无论是使用基于UNet的去噪器(SD1.5、SDXL)还是DiT(Pixart-α),以及适配器。在所有情况下,该方法都能在保持高质量图像生成的同时,大幅减少采样步骤的数量。

快速访问

方法

我们的方法旨在创建一种快速、可靠且适应性强的方法,适用于各种用途。我们提出训练一个学生模型,在单步中预测教师模型对损坏输入样本的多步预测去噪结果。此外,我们从一个可调整的分布中采样时间步,该分布在训练过程中会发生变化,以帮助学生模型针对特定时间步。

<p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/0b94e3b3-39de-40c2-a4d1-a696d7236c2b.jpg"> </p>

结果

<it>闪电扩散</it>与各种骨干网络兼容,例如

它还可以用于以免训练的方式加速现有的LoRA。查看此部分了解更多信息。

文本到图像变换骨干网络

Flash Stable Diffusion 3 (MMDiT)

<figure> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/5126d5c1-0eea-41f9-9786-46e7ae7c2ebc.jpg"> <figcaption> <p align="center"> <b>使用4个NFEs生成的图像</b> </p> </figcaption> </p> </figure>

Flash SDXL (UNet)

<figure> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/9dae8841-eaca-4ebe-9c4b-fdb5ff4a651e.jpg"> <figcaption> <p align="center"> <b>使用4个NFEs生成的图像</b> </p> </figcaption> </p> </figure>

Flash Pixart (DiT)

<figure> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/4c9dc010-9b33-4966-b136-462a18912baf.jpg"> <figcaption> <p align="center"> <b>使用4个NFEs生成的图像</b> </p> </figcaption> </p> </figure>

Flash SD

<figure> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/b244cb4a-860d-4dba-8498-a04f007fc16f.jpg"> <figcaption> <p align="center"> <b>使用4个NFEs生成的图像</b> </p> </figcaption> </p> </figure> </details>

各种用例

<details> <summary><b>图像修复</b></summary> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/59c0e973-b2d2-49f1-8c05-128354c56fb8.png"> </p> </details> <details> <summary><b>图像放大</b></summary> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/d7945c25-5fa0-4284-a548-6d07d9853566.png"> </p> </details> <details> <summary><b>人脸替换</b></summary> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/ff084d3f-a77f-4773-9ddf-3cc9f15f8046.png"> </p> </details> <details> <summary><b>T2I适配器</b></summary> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/c2b4f099-4b1e-4a07-80a5-0f6fc31e8831.jpg"> </p> </details>

无需训练的LoRA加速

SDXL LoRAs

<figure> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/4b2e93bb-7c57-4bd6-8f78-b3e39926fb5b.jpg"> <figcaption> <p align="center"> <b>使用4个NFEs生成的图像</b> </p> </figcaption> </p> </figure> </details>

设置

要开始使用,你首先需要创建一个至少安装了python3.10的虚拟环境并激活它

使用venv

python3.10 -m venv envs/flash_diffusion source envs/flash_diffusion/bin/activate

使用conda

conda create -n flash_diffusion python=3.10 conda activate flash_diffusion

然后安装所需的依赖项(如果在GPU上)并以可编辑模式安装该仓库

pip install --upgrade pip pip install -r requirements.txt pip install -e .

蒸馏现有的T2I模型

论文主要实验的复现脚本位于examples目录中。我们提供了4个不同的脚本:

examples\configs中,你会找到与每个脚本相关的配置yaml文件。你唯一需要做的就是修改yaml中的SHARDS_PATH_OR_URLS部分,以便模型在你自己的数据上进行训练。请注意,这个包使用webdataset来处理数据流,因此你使用的URL应该按照webdataset格式进行格式化。特别是对于这4个示例,每个样本需要由一个包含图像的jpg文件和一个包含标题(在caption键下)和图像美学评分(aesthetic_score)的json文件组成:

sample = {
    "jpg": dummy_image,
    "json": {
        "caption": "dummy caption",
        "aesthetic_score": 6.0
    }
}

然后可以通过简单运行以下命令来启动这些脚本

# 设置要使用的 GPU 和节点数量 export SLURM_NPROCS=1 export SLURM_NNODES=1 # 蒸馏 SD1.5 python3.10 examples/train_flash_sd.py # 蒸馏 SDXL1.0 python3.10 examples/train_flash_sdxl.py # 蒸馏 Pixart-α python3.10 examples/train_flash_pixart.py # 蒸馏 T2I Canny 适配器 python3.10 examples/train_flash_canny_adapter.py

自定义条件扩散模型蒸馏训练示例

该包还旨在支持自定义模型蒸馏。

from copy import deepcopy from flash.models.unets import DiffusersUNet2DCondWrapper from flash.models.vae import AutoencoderKLDiffusers, AutoencoderKLDiffusersConfig from flash.models.embedders import ( ClipEmbedder, ClipEmbedderConfig, ClipEmbedderWithProjection, ConditionerWrapper, ) # 创建 VAE vae_config = AutoencoderKLDiffusersConfig( "stabilityai/sdxl-vae" # 来自 HF Hub 的 VAE ) vae = AutoencoderKLDiffusers(config=vae_config) ## 创建条件嵌入器 ## # 返回两种条件类型的 Clip 条件嵌入器 embedder_1_config = ClipEmbedderConfig( version="stabilityai/stable-diffusion-xl-base-1.0", # 来自 HF Hub text_embedder_subfolder="text_encoder_2", tokenizer_subfolder="tokenizer_2", input_key="text", always_return_pooled=True, # 返回一个一维张量 ) embeddder_1 = ClipEmbedder(config=embedder_1_config) # 作用于通过拼接注入 UNET 的低分辨率图像的嵌入器 embedder_2_config = TorchNNEmbedderConfig( nn_modules=["torch.nn.Conv2d"], nn_modules_kwargs=[ dict( in_channels=3, out_channels=6, kernel_size=3, padding=1, stride=2, ), ], input_key="downsampled_image", unconditional_conditioning_rate=request.param, ) embedder_2 = TorchNNEmbedder(config=embedder_2_config) conditioner_wrapper = ConditionerWrapper( conditioners=[embedder1, embedder2] ) # 创建教师去噪器 unet = DiffusersUNet2DCondWrapper( in_channels=4 + 6, # VAE 通道 + 拼接条件 out_channels=4, # VAE 通道 cross_attention_dim=1280, # 交叉注意力条件 projection_class_embeddings_input_dim=1280, # 添加条件 class_embed_type="projection", ) # 加载教师权重 ... # 创建学生去噪器 student_denoiser = deepcopy(teacher_denoiser)

使用 Hugging Face 管道进行推理 🤗

import torch from diffusers import PixArtAlphaPipeline, Transformer2DModel, LCMScheduler from peft import PeftModel # 加载 LoRA transformer = Transformer2DModel.from_pretrained( "PixArt-alpha/PixArt-XL-2-1024-MS", subfolder="transformer", torch_dtype=torch.float16 ) transformer = PeftModel.from_pretrained( transformer, "jasperai/flash-pixart" ) # 管道 pipe = PixArtAlphaPipeline.from_pretrained( "PixArt-alpha/PixArt-XL-2-1024-MS", transformer=transformer, torch_dtype=torch.float16 ) # 调度器 pipe.scheduler = LCMScheduler.from_pretrained( "PixArt-alpha/PixArt-XL-2-1024-MS", subfolder="scheduler", timestep_spacing="trailing", ) pipe.to("cuda") prompt = "在茂密的森林里,一只浣熊正在读书。" image = pipe(prompt, num_inference_steps=4, guidance_scale=0).images[0]

在 ComfyUI 中使用 Flash

要在 ComfyUI 中本地使用 FlashSDXL,你需要:

  1. 确保你的 ComfyUI 安装是最新的
  2. 从 Hugging Face 下载检查点。如果你不知道怎么做,前往"Files and Version",进入 comfy 文件夹,点击 FlashSDXL.safetensors 旁边的下载按钮
  3. 将新的检查点文件移动到你本地的 comfyUI/models/loras/ 文件夹 在 sd_xl_base_1.0_0.9vae.safetensors 之上作为 LoRA 使用,本仓库的 examples/comfy 中提供了一个简单的 ComfyUI 工作流程 JSON 文件

免责声明:模型已经被训练为使用 cfg scale 为 1 和 lcm 调度器,但参数可以稍微调整。

将 Flash Diffusion 与现有 LoRA 结合 🎨

Flash Diffusion 模型还可以与现有的 LoRA 结合,以无需训练的方式实现少步生成。它们可以直接集成到 Hugging Face 管道中。示例如下。

from diffusers import DiffusionPipeline, LCMScheduler import torch user_lora_id = "TheLastBen/Papercut_SDXL" trigger_word = "papercut" flash_lora_id = "jasperai/flash-sdxl" # 加载管道 pipe = DiffusionPipeline.from_pretrained( "stabilityai/stable-diffusion-xl-base-1.0", variant="fp16" ) # 设置调度器 pipe.scheduler = LCMScheduler.from_config( pipe.scheduler.config ) # 加载 LoRA pipe.load_lora_weights(flash_lora_id, adapter_name="flash") pipe.load_lora_weights(user_lora_id, adapter_name="lora") pipe.set_adapters(["flash", "lora"], adapter_weights=[1.0, 1.0]) pipe.to(device="cuda", dtype=torch.float16) prompt = f"{trigger_word} 一只可爱的柯基" image = pipe( prompt, num_inference_steps=4, guidance_scale=0 ).images[0]

许可证

本代码根据 Creative Commons BY-NC 4.0 许可证 发布。

引用

如果你觉得这项工作有用或在研究中使用了它,请考虑引用我们

@misc{chadebec2024flash, title={Flash Diffusion: Accelerating Any Conditional Diffusion Model for Few Steps Image Generation}, author={Clement Chadebec and Onur Tasar and Eyal Benaroche and Benjamin Aubin}, year={2024}, eprint={2406.02347}, archivePrefix={arXiv}, primaryClass={cs.CV} }

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
下拉加载更多