这是ICLR2023聚焦论文的官方实现
作者:来自德克萨斯大学奥斯汀分校的Xingchao Liu, Chengyue Gong, Qiang Liu
修正流可以应用于稳定扩散,使其成为一步生成器。详见此处
修正流是一种新颖的方法,用于学习两个分布$\pi_0$和$\pi_1$之间的传输映射,通过连接样本之间的直线路径并学习ODE模型来实现。
然后,通过重新流动操作,我们迭代地拉直ODE轨迹,最终实现一步生成,比GAN具有更高的多样性,比快速扩散模型具有更好的FID。
这里可以找到介绍性网站,主要思想如下图所示:

修正流可以应用于生成建模和无监督域转移,如下图所示:

要更全面地了解其理论性质及与最优传输的关系,请参阅修正流:保持边际的最优传输方法
我们提供交互式教程和Colab笔记本,引导您完成修正流的整个流程。我们提供两个版本,采用不同的速度模型,神经网络版本和非参数版本
图像生成的代码在./ImageGeneration中。首先运行以下命令
cd ./ImageGeneration
以下说明已在Lambda Labs的"1x A100 (40 GB SXM4)"实例上测试,即gpu_1x_a100_sxm4和Ubuntu 20.04.2(驱动版本:495.29.05,CUDA版本:11.5,CuDNN版本:8.1.0)。
我们建议使用Anaconda。
运行以下命令安装依赖项:
conda create -n rectflow python=3.8
conda activate rectflow
pip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 --extra-index-url https://download.pytorch.org/whl/cu113
pip install tensorflow==2.9.0 tensorflow-probability==0.12.2 tensorflow-gan==2.0.0 tensorflow-datasets==4.6.0
pip install jax==0.3.4 jaxlib==0.3.2
pip install numpy==1.21.6 ninja==1.11.1 matplotlib==3.7.0 ml_collections==0.1.1
运行以下命令从头开始训练1-修正流
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_ddpmpp.py --eval_folder eval --mode train --workdir ./logs/1_rectified_flow
--config 此运行的配置文件。
--eval_folder 训练期间每次评估生成的图像和其他文件将存储在./workdir/eval_folder中。在此命令中,为./logs/1_rectified_flow/eval/
---mode main.py的模式选择。从train、eval和reflow中选择。
我们遵循Score SDE中的评估流程。您可以下载cifar10_stats.npz并将其保存到assets/stats/。
然后运行
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_ddpmpp.py --eval_folder eval --mode eval --workdir ./logs/1_rectified_flow --config.eval.enable_sampling --config.eval.batch_size 1024 --config.eval.num_samples 50000 --config.eval.begin_ckpt 2
这使用1024的批量大小采样50000张图像,从checkpoint-2.pth开始,并计算FID和IS。
要准备重新流动的数据,运行以下命令
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_reflow_generate_data.py --eval_folder eval --mode reflow --workdir ./logs/tmp --config.reflow.last_flow_ckpt "./logs/1_rectified_flow/checkpoints/checkpoint-10.pth" --config.reflow.data_root "./assets/reflow_data/1_rectified_flow/" --config.reflow.total_number_of_samples 100000 --config.seed 0
--config.reflow.last_flow_ckpt 用于数据生成的检查点。
--config.reflow.data_root 您希望保存生成对的位置。$(Z_0, Z_1)$对将保存到./data_root/seed/
--config.reflow.total_number_of_samples 您想生成的对的总数
--config.seed 随机种子。更改随机种子以并行执行数据生成。
对于CIFAR10,我们建议为重新流动生成至少1M对。
生成数据对后,运行以下命令训练2-修正流
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_reflow_train.py --eval_folder eval --mode reflow --workdir ./logs/2_rectified_flow --config.reflow.last_flow_ckpt "./logs/1_rectified_flow/checkpoints/checkpoint-10.pth" --config.reflow.data_root "./assets/reflow_data/1_rectified_flow/"
此命令使用上一步生成的数据对微调1-修正流的检查点,并将2-修正流的日志保存到./logs/2_rectified_flow。
2-修正流在使用一步生成$z_1=z_0 + v(z_0, 0)$时应该有更好的性能,如下图所示:

要使用步骤N=1进行 评估,运行
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_ddpmpp.py --eval_folder eval --mode eval --workdir ./logs/2_rectified_flow --config.sampling.use_ode_sampler "euler" --config.sampling.sample_N 1 --config.eval.enable_sampling --config.eval.batch_size 1024 --config.eval.num_samples 50000 --config.eval.begin_ckpt 2
其中sample_N指采样步骤的数量。
我们可以通过蒸馏进一步提高2-修正流在一步生成中的质量。
在蒸馏之前,我们需要来自2-修正流的新数据对。这可以简单地通过以下方式完成
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_reflow_generate_data.py --eval_folder eval --mode reflow --workdir ./logs/tmp --config.reflow.last_flow_ckpt "./logs/2_rectified_flow/checkpoints/checkpoint-10.pth" --config.reflow.data_root "./assets/reflow_data/2_rectified_flow/" --config.reflow.total_number_of_samples 100000 --config.seed 0
然后我们可以通过以下方式蒸馏2-修正流
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_reflow_distill_k=1.py --eval_folder eval --mode reflow --workdir ./logs/2_rectified_flow_k=1_distill --config.reflow.last_flow_ckpt "./logs/2_rectified_flow/checkpoints/checkpoint-10.pth" --config.reflow.data_root "./assets/reflow_data/2_rectified_flow/"
同样,我们可以通过以下方式蒸馏2-修正流以进行k步生成(k>1)
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_reflow_distill_k_g_1.py --eval_folder eval --mode reflow --config.reflow.reflow_t_schedule 2 --workdir ./logs/2_rectified_flow_k=2_distill --config.reflow.last_flow_ckpt "./logs/2_rectified_flow/checkpoints/checkpoint-10.pth" --config.reflow.data_root "./assets/reflow_data/2_rectified_flow/"
这里,我们以k=2为例。更改--config.reflow.reflow_t_schedule以适应不同的k。
为了节省存储空间并简化重新流动中的训练流程,数据对也可以在训练期间由教师模型生成,这需要更长的训练时间。要使用在线数据生成执行重新流动,运行
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_reflow_train_online.py --eval_folder eval --mode reflow --workdir ./logs/2_rectified_flow --config.reflow.last_flow_ckpt "./logs/1_rectified_flow/checkpoints/checkpoint-10.pth"
然后,要使用在线数据生成蒸馏1-Rectified Flow,运行以下命令:
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_reflow_distill_k=1_online.py --eval_folder eval --mode reflow --workdir ./logs/1_rectified_flow_k=1_distill --config.reflow.last_flow_ckpt "./logs/1_rectified_flow/checkpoints/checkpoint-10.pth"
我们提供了在四个256×256数据集(LSUN卧室、LSUN教堂、CelebA-HQ和AFHQ-猫)上进行高分辨率生成的代码和预训练检查点。
以CelebA-HQ为例。要在CelebA-HQ上训练1-rectified flow,运行:
python ./main.py --config ./configs/rectified_flow/celeba_hq_pytorch_rf_gaussian.py --eval_folder eval --mode train --workdir ./logs/celebahq
要从预训练的rectified flow中采样图像,运行:
python ./main.py --config ./configs/rectified_flow/celeba_hq_pytorch_rf_gaussian.py --eval_folder eval --mode eval --workdir ./logs/celebahq --config.eval.enable_figures_only --config.eval.begin_ckpt 10 --config.eval.end_ckpt 10 --config.training.data_dir YOUR_DATA_DIR
生成的图像将保存在./logs/celebahq/eval/ckpt/figs中。
以使用预训练检查点为例, 从CIFAR10 1-Rectified Flow下载checkpoint_8.pth,将其放入./logs/1_rectified_flow/checkpoints/,然后运行:
python ./main.py --config ./configs/rectified_flow/cifar10_rf_gaussian_ddpmpp.py --eval_folder eval --mode eval --workdir ./logs/1_rectified_flow --config.eval.enable_sampling --config.eval.batch_size 1024 --config.eval.num_samples 50000 --config.eval.begin_ckpt 8
预训练检查点列表如下:
如果您使用了我们的代码或者我们的工作与您的研究相关,请引用我们的论文:
@article{liu2022flow,
title={Flow straight and fast: Learning to generate and transfer data with rectified flow},
author={Liu, Xingchao and Gong, Chengyue and Liu, Qiang},
journal={arXiv preprint arXiv:2209.03003},
year={2022}
}
本代码库的大部分内容基于Score SDE构建。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从 而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手 ,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号