本仓库是论文《闪电扩散:加速任何条件扩散模型实现少步图像生成》的官方实现。
<p align="center"> <a href="http://arxiv.org/abs/2406.02347"> <img src='https://img.shields.io/badge/论文-2406.02347-green' /> </a> <a href="https://gojasper.github.io/flash-diffusion-project/"> <img src='https://img.shields.io/badge/项目-页面-blue' /> </a> <a href='https://creativecommons.org/licenses/by-nd/4.0/legalcode'> <img src="https://img.shields.io/badge/许可证-CC.BY.NC-purple" /> </a> <br> <a href="https://huggingface.co/spaces/jasperai/flash-diffusion"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20演示-FlashPixart-orange' /> </a> <a href="https://huggingface.co/spaces/jasperai/flash-sd3"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20演示-FlashSD3-orange' /> </a> <a href="https://huggingface.co/spaces/jasperai/flash-lora"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20演示-FlashLoRAs-orange' /> </a> <br> <a href="https://huggingface.co/jasperai/flash-sd"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashSD-yellow' /> </a> <a href="https://huggingface.co/jasperai/flash-sdxl"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashSDXL-yellow' /> </a> <a href="https://huggingface.co/jasperai/flash-pixart"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashPixart-yellow' /> </a> <a href="https://huggingface.co/jasperai/flash-sd3"> <img src='https://img.shields.io/badge/%F0%9F%A4%97%20检查点-FlashSD3-yellow' /> </a> </a> <a href="https://huggingface.co/jasperai/flash-sdxl/tree/main/comfy"> <img src='https://img.shields.io/badge/Comfy-FlashSDXL-black' /> </a> </p> <figure> <p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/e2bf9ed2-ef0b-4d57-b956-112718eb942c.jpg"> <figcaption> <p align="center"> <b>使用4个NFE生成的图像</b> </p> </figcaption> </p> </figure>在本论文中,我们提出了一种高效、快速、多功能且与LoRA兼容的蒸馏方法来加速预训练扩散模型的生成:闪电扩散。该方法在COCO 2014和COCO 2017数据集上的少步图像生成方面,在FID和CLIP-Score方面达到了最先进的性能,同时仅需要几个GPU小时的训练,且可训练参数比现有方法更少。除了其高效性外,该方法的多功能性还体现在多个任务中,如文本到图像、图像修复、换脸、超分辨率,以及使用不同的扩散模型骨干网络,无论是使用基于UNet的去噪器(SD1.5、SDXL)还是DiT(Pixart-α),以及适配器。在所有情况下,该方法都能在保持高质量图像生成的同时,大幅减少采样步骤的数量。
我们的方法旨在创建一种快速、可靠且适应性强的方法,适用于各种用途。我们提 出训练一个学生模型,在单步中预测教师模型对损坏输入样本的多步预测去噪结果。此外,我们从一个可调整的分布中采样时间步,该分布在训练过程中会发生变化,以帮助学生模型针对特定时间步。
<p align="center"> <img style="width:600px;" src="https://yellow-cdn.veclightyear.com/ab5030c0/0b94e3b3-39de-40c2-a4d1-a696d7236c2b.jpg"> </p><it>闪电扩散</it>与各种骨干网络兼容,例如
它还可以用于以免训练的方式加速现有的LoRA。查看此部分了解更多信息。
要开始使用,你首先需要创建一个至少安装了python3.10
的虚拟环境并激活它
venv
python3.10 -m venv envs/flash_diffusion source envs/flash_diffusion/bin/activate
conda
conda create -n flash_diffusion python=3.10 conda activate flash_diffusion
然后安装所需的依赖项(如果在GPU上)并以可编辑模式安装该仓库
pip install --upgrade pip pip install -r requirements.txt pip install -e .
论文主要实验的复现脚本位于examples
目录中。我们提供了4个不同的脚本:
train_flash_sd3.py
:蒸馏SD3模型train_flash_sdxl.py
:蒸馏SDXL模型train_flash_pixart
:蒸馏Pixart-α模型train_flash_canny_adapter.py
:蒸馏T2I Canny适配器train_flash_sd.py
:蒸馏SD1.5模型在examples\configs
中,你会找到与每个脚本相关的配置yaml
文件。你唯一需要做的就是修改yaml
中的SHARDS_PATH_OR_URLS
部分,以便模型在你自己的数据上进行训练。请注意,这个包使用webdataset
来处理数据流,因此你使用的URL应该按照webdataset格式
进行格式化。特别是对于这4个示例,每个样本需要由一个包含图像的jpg
文件和一个包含标题(在caption
键下)和图像美学评分 (aesthetic_score
)的json
文件组成:
sample = {
"jpg": dummy_image,
"json": {
"caption": "dummy caption",
"aesthetic_score": 6.0
}
}
然后可以通过简单运行以下命令来启动这些脚本
# 设置要使用的 GPU 和节点数量 export SLURM_NPROCS=1 export SLURM_NNODES=1 # 蒸馏 SD1.5 python3.10 examples/train_flash_sd.py # 蒸馏 SDXL1.0 python3.10 examples/train_flash_sdxl.py # 蒸馏 Pixart-α python3.10 examples/train_flash_pixart.py # 蒸馏 T2I Canny 适配器 python3.10 examples/train_flash_canny_adapter.py
该包还旨在支持自定义模型蒸馏。
from copy import deepcopy from flash.models.unets import DiffusersUNet2DCondWrapper from flash.models.vae import AutoencoderKLDiffusers, AutoencoderKLDiffusersConfig from flash.models.embedders import ( ClipEmbedder, ClipEmbedderConfig, ClipEmbedderWithProjection, ConditionerWrapper, ) # 创建 VAE vae_config = AutoencoderKLDiffusersConfig( "stabilityai/sdxl-vae" # 来自 HF Hub 的 VAE ) vae = AutoencoderKLDiffusers(config=vae_config) ## 创建条件嵌入器 ## # 返回两种条件类型的 Clip 条件嵌入器 embedder_1_config = ClipEmbedderConfig( version="stabilityai/stable-diffusion-xl-base-1.0", # 来自 HF Hub text_embedder_subfolder="text_encoder_2", tokenizer_subfolder="tokenizer_2", input_key="text", always_return_pooled=True, # 返回一个一维张量 ) embeddder_1 = ClipEmbedder(config=embedder_1_config) # 作用于通过拼接注入 UNET 的低分辨率图像的嵌入器 embedder_2_config = TorchNNEmbedderConfig( nn_modules=["torch.nn.Conv2d"], nn_modules_kwargs=[ dict( in_channels=3, out_channels=6, kernel_size=3, padding=1, stride=2, ), ], input_key="downsampled_image", unconditional_conditioning_rate=request.param, ) embedder_2 = TorchNNEmbedder(config=embedder_2_config) conditioner_wrapper = ConditionerWrapper( conditioners=[embedder1, embedder2] ) # 创建教师去噪器 unet = DiffusersUNet2DCondWrapper( in_channels=4 + 6, # VAE 通道 + 拼接条件 out_channels=4, # VAE 通道 cross_attention_dim=1280, # 交叉注意力条件 projection_class_embeddings_input_dim=1280, # 添加条件 class_embed_type="projection", ) # 加载教师权重 ... # 创建学生去噪器 student_denoiser = deepcopy(teacher_denoiser)
import torch from diffusers import PixArtAlphaPipeline, Transformer2DModel, LCMScheduler from peft import PeftModel # 加载 LoRA transformer = Transformer2DModel.from_pretrained( "PixArt-alpha/PixArt-XL-2-1024-MS", subfolder="transformer", torch_dtype=torch.float16 ) transformer = PeftModel.from_pretrained( transformer, "jasperai/flash-pixart" ) # 管道 pipe = PixArtAlphaPipeline.from_pretrained( "PixArt-alpha/PixArt-XL-2-1024-MS", transformer=transformer, torch_dtype=torch.float16 ) # 调度器 pipe.scheduler = LCMScheduler.from_pretrained( "PixArt-alpha/PixArt-XL-2-1024-MS", subfolder="scheduler", timestep_spacing="trailing", ) pipe.to("cuda") prompt = "在茂密的森林里,一只浣熊正在读书。" image = pipe(prompt, num_inference_steps=4, guidance_scale=0).images[0]
要在 ComfyUI 中本地使用 FlashSDXL,你需要:
comfy
文件夹,点击 FlashSDXL.safetensors
旁边的下载按钮comfyUI/models/loras/
文件夹
在 sd_xl_base_1.0_0.9vae.safetensors
之上作为 LoRA 使用,本仓库的 examples/comfy
中提供了一个简单的 ComfyUI 工作流程 JSON 文件免责声明:模型已经被训练为使用 cfg scale 为 1 和 lcm 调度器,但参数可以稍微调整。
Flash Diffusion 模型还可以与现有的 LoRA 结合,以无需训练的方式实现少步生成。它们可以直接集成到 Hugging Face 管道中。示例如下。
from diffusers import DiffusionPipeline, LCMScheduler import torch user_lora_id = "TheLastBen/Papercut_SDXL" trigger_word = "papercut" flash_lora_id = "jasperai/flash-sdxl" # 加载管道 pipe = DiffusionPipeline.from_pretrained( "stabilityai/stable-diffusion-xl-base-1.0", variant="fp16" ) # 设置调度器 pipe.scheduler = LCMScheduler.from_config( pipe.scheduler.config ) # 加载 LoRA pipe.load_lora_weights(flash_lora_id, adapter_name="flash") pipe.load_lora_weights(user_lora_id, adapter_name="lora") pipe.set_adapters(["flash", "lora"], adapter_weights=[1.0, 1.0]) pipe.to(device="cuda", dtype=torch.float16) prompt = f"{trigger_word} 一只可爱的柯基" image = pipe( prompt, num_inference_steps=4, guidance_scale=0 ).images[0]
本代码根据 Creative Commons BY-NC 4.0 许可证 发布。
如果你觉得这项工作有用或在研究中使用了它,请考虑引用我们
@misc{chadebec2024flash, title={Flash Diffusion: Accelerating Any Conditional Diffusion Model for Few Steps Image Generation}, author={Clement Chadebec and Onur Tasar and Eyal Benaroche and Benjamin Aubin}, year={2024}, eprint={2406.02347}, archivePrefix={arXiv}, primaryClass={cs.CV} }
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号