rcg

rcg

RCG框架实现突破性无条件图像生成性能

RCG是一种创新的自监督图像生成框架,在ImageNet 256x256数据集上达到了无条件图像生成的最佳性能。该框架缩小了无条件和有条件图像生成之间的性能差距。项目提供基于PyTorch的GPU实现,包含表示扩散模型(RDM)以及MAGE、DiT、ADM和LDM等多种像素生成器的训练和评估代码。同时提供预训练模型和可视化工具,便于研究人员复现和拓展相关工作。

RCGPyTorch图像生成自监督学习神经网络Github开源项目

RCG PyTorch 实现

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/3f46cfbd-4a30-4e55-83a7-5b3391b767f2.png" width="560"> </p>

这是论文无条件生成的回归:一种自监督表示生成方法的 PyTorch/GPU 实现:

@Article{RCG2023,
  author  = {Tianhong Li and Dina Katabi and Kaiming He},
  journal = {arXiv:2312.03701},
  title   = {Return of Unconditional Generation: A Self-supervised Representation Generation Method},
  year    = {2023},
}

RCG 是一个自条件图像生成框架,在 ImageNet 256x256 上实现了最先进的无条件图像生成性能,弥合了长期存在的无条件和类条件图像生成之间的性能差距。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/b52af2ce-905b-4f76-98be-b4f061e61dfb.png" width="560"> </p>

更新

2024 年 3 月

  • 更新 FID 评估和结果,遵循 ADM suite,通过在 torch-fidelity 中硬编码 ADM 统计信息。 可以通过以下方式安装修改后的 torch-fidelity
pip install -e git+https://github.com/LTH14/torch-fidelity.git@master#egg=torch-fidelity
  • 更新训练 400 个周期的 ADM 检查点(与原论文相同)。
  • 包含使用 RCG 训练 DiT-XL 的脚本和预训练检查点(400 个周期)。
  • 更新 Arxiv。

准备工作

数据集

下载 ImageNet 数据集,并将其放在您的 IMAGENET_DIR 中。 准备 ImageNet 验证集以进行 FID 评估:

python prepare_imgnet_val.py --data_path ${IMAGENET_DIR} --output_dir imagenet-val

要对验证集进行 FID 评估,请执行 pip install torch-fidelity,这将安装原始的 torch-fidelity 包。

安装

下载代码

git clone https://github.com/LTH14/rcg.git
cd rcg

可以使用以下命令创建并激活名为 rcg 的合适 conda 环境:

conda env create -f environment.yaml
conda activate rcg

使用此链接 下载预训练的 VQGAN 分词器,命名为 vqgan_jax_strongaug.ckpt

使用此链接 下载预训练的 moco v3 ViT-B 编码器,并将其命名为 pretrained_enc_ckpts/mocov3/vitb.pth.tar

使用此链接 下载预训练的 moco v3 ViT-L 编码器,并将其命名为 pretrained_enc_ckpts/mocov3/vitl.pth.tar

使用方法

RDM

使用 4 个 V100 GPU 训练 Moco v3 ViT-B 表示扩散模型:

python -m torch.distributed.launch --nproc_per_node=4 --nnodes=1 --node_rank=0 \
main_rdm.py \
--config config/rdm/mocov3vitb_simplemlp_l12_w1536.yaml \
--batch_size 128 --input_size 256 \
--epochs 200 \
--blr 1e-6 --weight_decay 0.01 \
--output_dir ${OUTPUT_DIR} \
--data_path ${IMAGENET_DIR} \
--dist_url tcp://${MASTER_SERVER_ADDRESS}:2214

要继续之前中断的训练会话,请将 --resume 设置为存储 checkpoint-last.pthOUTPUT_DIR

下表提供了论文中使用的预训练 Moco v3 ViT-B/ViT-L RDM 权重:

<table><tbody> <!-- START TABLE --> <!-- TABLE HEADER --> <th valign="bottom"></th> <th valign="bottom">Moco v3 ViT-B</th> <th valign="bottom">Moco v3 ViT-L</th> <!-- TABLE BODY --> <tr><td align="left">类无条件 RDM</td> <td align="center"><a href="https://drive.google.com/file/d/1gdsvzKLmmBWuF4Ymy4rQ_T1t6dDHnTEA/view?usp=sharing">Google Drive</a> / <a href="config/rdm/mocov3vitb_simplemlp_l12_w1536.yaml">配置</a></td> <td align="center"><a href="https://drive.google.com/file/d/1E5E3i9LRpSy0tVF7NA0bGXEh4CrjHAXz/view?usp=sharing">Google Drive</a> / <a href="config/rdm/mocov3vitl_simplemlp_l12_w1536.yaml">配置</a></td> </tr> <tr><td align="left">类条件 RDM</td> <td align="center"><a href="https://drive.google.com/file/d/1roanmVfg-UaddVehstQErvByqi0OYs2R/view?usp=sharing">Google Drive</a> / <a href="config/rdm/mocov3vitb_simplemlp_l12_w1536_classcond.yaml">配置</a></td> <td align="center"><a href="https://drive.google.com/file/d/1lZmXOcdHE97Qmn2azNAo2tNVX7dtTAkY/view?usp=sharing">Google Drive</a> / <a href="config/rdm/mocov3vitl_simplemlp_l12_w1536_classcond.yaml">配置</a></td> </tr> </tbody></table>

像素生成器:MAGE

使用 64 个 V100 GPU 训练一个基于 Moco v3 ViT-B 表示的 MAGE-B,训练 200 个周期:

python -m torch.distributed.launch --nproc_per_node=8 --nnodes=8 --node_rank=0 \
main_mage.py \
--pretrained_enc_arch mocov3_vit_base \
--pretrained_enc_path pretrained_enc_ckpts/mocov3/vitb.pth.tar --rep_drop_prob 0.1 \
--use_rep --rep_dim 256 --pretrained_enc_withproj --pretrained_enc_proj_dim 256 \
--pretrained_rdm_cfg ${RDM_CFG_PATH} --pretrained_rdm_ckpt ${RDM_CKPT_PATH} \
--rdm_steps 250 --eta 1.0 --temp 6.0 --num_iter 20 --num_images 50000 --cfg 0.0 \
--batch_size 64 --input_size 256 \
--model mage_vit_base_patch16 \
--mask_ratio_min 0.5 --mask_ratio_max 1.0 --mask_ratio_mu 0.75 --mask_ratio_std 0.25 \
--epochs 200 \
--warmup_epochs 10 \
--blr 1.5e-4 --weight_decay 0.05 \
--output_dir ${OUTPUT_DIR} \
--data_path ${IMAGENET_DIR} \
--dist_url tcp://${MASTER_SERVER_ADDRESS}:2214

要训练基于 Moco v3 ViT-L 表示的 MAGE-L, 更改 Moco v3 ViT-L RDM 的 RDM_CFG_PATHRDM_CKPT_PATH,以及以下参数:

--pretrained_enc_arch mocov3_vit_large --pretrained_enc_path pretrained_enc_ckpts/mocov3/vitl.pth.tar --temp 11.0 --model mage_vit_large_patch16

恢复:将 --resume 设置为存储 checkpoint-last.pthOUTPUT_DIR

评估:将 --resume 设置为预训练的 MAGE 检查点, 并在上述脚本中包含 --evaluate 标志。

预训练模型

<table><tbody> <!-- START TABLE --> <!-- TABLE HEADER --> <th valign="bottom"></th> <th valign="bottom">表示条件 MAGE-B</th> <th valign="bottom">表示条件 MAGE-L</th> <!-- TABLE BODY --> <tr><td align="left">检查点</td> <td align="center"><a href="https://drive.google.com/file/d/1iZY0ujWp5GVochTLj0U6j4HgVTOyWPUI/view?usp=sharing">Google Drive</a></td> <td align="center"><a href="https://drive.google.com/file/d/1nQh9xCqjQCd78zKwn2L9eLfLyVosb1hp/view?usp=sharing">Google Drive</a></td> </tr> <tr><td align="left">类无条件生成(无 CFG)</td> <td align="center">FID=3.98,IS=177.8</td> <td align="center">FID=3.44,IS=186.9</td> </tr> <tr><td align="left">类无条件生成(有 CFG)</td> <td align="center">FID=3.19,IS=214.9(cfg=1.0)</td> <td align="center">FID=2.15,IS=253.4(cfg=6.0)</td> </tr> <tr><td align="left">类条件生成(无 CFG)</td> <td align="center">FID=3.50,IS=194.9</td> <td align="center">FID=2.99,IS=215.5</td> </tr> <tr><td align="left">类条件生成(有 CFG)</td> <td align="center">FID=3.18,IS=242.6(cfg=1.0)</td> <td align="center">FID=2.25,IS=300.7(cfg=6.0)</td> </tr> </tbody></table>

可视化:使用 viz_rcg.ipynb 可视化生成结果。

类无条件生成示例:

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/0a1704ff-068e-4b70-95a0-942e34ea6669.jpg" width="800"> </p>

类条件生成示例:

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/48cd7973-e792-4777-b818-9ba687df837c.jpg" width="800"> </p>

像素生成器:DiT

要训练一个基于Moco v3 ViT-B表示的DiT-L模型,使用128个V100 GPU进行400轮训练:

python -m torch.distributed.launch --nproc_per_node=8 --nnodes=16 --node_rank=0 \
main_dit.py \
--rep_cond --rep_dim 256 \
--pretrained_enc_arch mocov3_vit_base \
--pretrained_enc_path pretrained_enc_ckpts/mocov3/vitb.pth.tar \
--pretrained_rdm_cfg ${RDM_CFG_PATH} \
--pretrained_rdm_ckpt ${RDM_CKPT_PATH} \
--batch_size 16 --image_size 256 --dit_model DiT-L/2 --num-sampling-steps ddim25 \
--epochs 400  \
--lr 1e-4 --weight_decay 0.0 \
--output_dir ${OUTPUT_DIR} \
--data_path ${IMAGENET_DIR} \
--dist_url tcp://${MASTER_SERVER_ADDRESS}:2214

注意:有时对于DiT-XL,batch_size=16会导致内存溢出。将其改为12或14对性能影响很小。

恢复训练:将--resume设置为存储checkpoint-last.pthOUTPUT_DIR

评估:将--resume设置为预训练的DiT检查点,并在上述脚本中包含--evaluate标志。设置--num-sampling-steps 250以获得更好的生成性能。

基于Moco v3 ViT-B表示的预训练DiT-XL/2(400轮)可以在这里下载(FID=4.89,IS=143.2)。

像素生成器:ADM

要训练一个基于Moco v3 ViT-B表示的ADM模型,使用128个V100 GPU进行100轮训练:

python -m torch.distributed.launch --nproc_per_node=8 --nnodes=16 --node_rank=0 \
main_adm.py \
--rep_cond --rep_dim 256 \
--pretrained_enc_arch mocov3_vit_base \
--pretrained_enc_path pretrained_enc_ckpts/mocov3/vitb.pth.tar \
--pretrained_rdm_cfg ${RDM_CFG_PATH} \
--pretrained_rdm_ckpt ${RDM_CKPT_PATH} \
--batch_size 2 --image_size 256 \
--epochs 100  \
--lr 1e-4 --weight_decay 0.0 \
--attention_resolutions 32,16,8 --diffusion_steps 1000 \
--learn_sigma --noise_schedule linear \
--num_channels 256 --num_head_channels 64 --num_res_blocks 2 --resblock_updown \
--use_scale_shift_norm \
--gen_timestep_respacing ddim25 --use_ddim \
--output_dir ${OUTPUT_DIR} \
--data_path ${IMAGENET_DIR} \
--dist_url tcp://${MASTER_SERVER_ADDRESS}:2214

恢复训练:将--resume设置为存储checkpoint-last.pthOUTPUT_DIR

评估:将--resume设置为预训练的ADM检查点,并在上述脚本中包含--evaluate标志。设置--gen_timestep_respacing 250并禁用--use_ddim以获得更好的生成性能。

基于Moco v3 ViT-B表示的预训练ADM(400轮)可以在这里下载(FID=6.24,IS=136.9)。

像素生成器:LDM

使用此链接下载分词器,并将其命名为vqgan-ckpts/ldm_vqgan_f8_16384/checkpoints/last.ckpt

要训练一个基于Moco v3 ViT-B表示的LDM-8模型,使用64个V100 GPU进行40轮训练:

python -m torch.distributed.launch --nproc_per_node=8 --nnodes=8 --node_rank=0 \
main_ldm.py \
--config config/ldm/cin-ldm-vq-f8-repcond.yaml \
--batch_size 4 \
--epochs 40 \
--blr 2.5e-7 --weight_decay 0.01 \
--output_dir ${OUTPUT_DIR} \
--data_path ${IMAGENET_DIR} \
--dist_url tcp://${MASTER_SERVER_ADDRESS}:2214

恢复训练:将--resume设置为存储checkpoint-last.pthOUTPUT_DIR

评估:将--resume设置为预训练的LDM检查点,并在上述脚本中包含--evaluate标志。

基于Moco v3 ViT-B表示的预训练LDM(40轮)可以在这里下载(FID=11.30,IS=101.9)。

联系方式

如果您有任何问题,请随时通过电子邮件(tianhong@mit.edu)与我联系。祝您使用愉快!

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多