
MDTv2图像合成模型:更快收敛和卓越性能
MDTv2是一种先进的深度学习图像合成模型,在ImageNet数据集上实现了1.58的FID分数,创造新的业界标准。该模型采用掩码潜在建模技术,提高了图像语义理解能力,学习速度比先前模型快10倍以上。MDTv2在图像生成质量和训练效率方面都有显著提升,为计算机视觉和人工智能领域带来了新的可能性。
掩码扩散变换器是一个强大的图像合成器的官方代码库。
MDTv2 在图像合成方面取得了卓越的性能,例如,在ImageNet数据集上达到了新的最佳FID分数1.58,并且学习速度比之前的最佳模型DiT快10倍以上。
MDTv2比原始MDT快5倍。
尽管扩散概率模型(DPMs)在图像合成方面取得了成功,但我们观察到它们通常缺乏上下文推理能力,无法学习图像中物体部分之间的关系,导致学习过程缓慢。为解决这一问题,我们提出了掩码扩散变换器(MDT),引入了一种掩码潜在建模方案,明确增强DPMs在图像中学习物体语义部分之间上下文关系的能力。
在训练过程中,MDT在潜在空间中对某些标记进行掩码。然后,设计了一个不对称的扩散变换器,在保持扩散生成过程的同时,从未掩码的标记预测被掩码的标记。我们的MDT可以从不完整的上下文输入中重建图像的完整信息,从而使其能够学习图像标记之间的相关关系。我们进一步改进了MDT,采用了更高效的宏观网络结构和训练策略,命名为MDTv2。
实验结果表明,MDTv2在图像合成方面取得了卓越的性能,例如,在ImageNet数据集上达到了新的最佳FID分数1.58,并且学习速度比之前的最佳模型DiT快10倍以上。
<img width="800" alt="image" src="https://yellow-cdn.veclightyear.com/835a84d5/05e71c7d-4ba2-40be-b87c-22fd0f8c076a.jpg">| 模型 | 数据集 | 分辨率 | FID-50K | Inception Score |
|---|---|---|---|---|
| MDT-XL/2 | ImageNet | 256x256 | 1.79 | 283.01 |
| MDTv2-XL/2 | ImageNet | 256x256 | 1.58 | 314.73 |
模型托管在huggingface上,你也可以用以下方式下载:
from huggingface_hub import snapshot_download
models_path = snapshot_download("shgao/MDT-XL2")
ckpt_model_path = os.path.join(models_path, "mdt_xl2_v1_ckpt.pt")
huggingface演示在这里。
FID的新最佳记录。
准备Pytorch >=2.0版本。下载并安装此仓库。
git clone https://github.com/sail-sg/MDT
cd MDT
pip install -e .
安装Adan优化器,Adan是一个强大的优化器,收敛速度比AdamW更快。(论文)
python -m pip install git+https://github.com/sail-sg/Adan.git
数据
ClassID_ImgID.jpg,因为ADM的数据加载器从文件名中获取类别ID。</details> <details> <summary>在多个节点上训练(`run_ddp_master.sh`和`run_ddp_worker.sh`)。</summary>export OPENAI_LOGDIR=output_mdtv2_s2 NUM_GPUS=8 MODEL_FLAGS="--image_size 256 --mask_ratio 0.30 --decode_layer 6 --model MDTv2_S_2" DIFFUSION_FLAGS="--diffusion_steps 1000" TRAIN_FLAGS="--batch_size 32" DATA_PATH=/dataset/imagenet python -m torch.distributed.launch --nproc_per_node=$NUM_GPUS scripts/image_train.py --data_dir $DATA_PATH $MODEL_FLAGS $DIFFUSION_FLAGS $TRAIN_FLAGS
</details># 主节点: export OPENAI_LOGDIR=output_mdtv2_xl2 MODEL_FLAGS="--image_size 256 --mask_ratio 0.30 --decode_layer 4 --model MDTv2_XL_2" DIFFUSION_FLAGS="--diffusion_steps 1000" TRAIN_FLAGS="--batch_size 4" DATA_PATH=/dataset/imagenet NUM_NODE=8 GPU_PRE_NODE=8 python -m torch.distributed.launch --master_addr=$(hostname) --nnodes=$NUM_NODE --node_rank=$RANK --nproc_per_node=$GPU_PRE_NODE --master_port=$MASTER_PORT scripts/image_train.py --data_dir $DATA_PATH $MODEL_FLAGS $DIFFUSION_FLAGS $TRAIN_FLAGS # 工作节点: export OPENAI_LOGDIR=output_mdtv2_xl2 MODEL_FLAGS="--image_size 256 --mask_ratio 0.30 --decode_layer 4 --model MDTv2_XL_2" DIFFUSION_FLAGS="--diffusion_steps 1000" TRAIN_FLAGS="--batch_size 4" DATA_PATH=/dataset/imagenet NUM_NODE=8 GPU_PRE_NODE=8 python -m torch.distributed.launch --master_addr=$MASTER_ADDR --nnodes=$NUM_NODE --node_rank=$RANK --nproc_per_node=$GPU_PRE_NODE --master_port=$MASTER_PORT scripts/image_train.py --data_dir $DATA_PATH $MODEL_FLAGS $DIFFUSION_FLAGS $TRAIN_FLAGS
评估代码来自ADM的TensorFlow评估套件。
请按照evaluations文件夹中的说明设置评估环境。
</details>MODEL_PATH=output_mdtv2_xl2/mdt_xl2_v2_ckpt.pt export OPENAI_LOGDIR=output_mdtv2_xl2_eval NUM_GPUS=8 echo 'CFG类条件采样:' MODEL_FLAGS="--image_size 256 --model MDTv2_XL_2 --decode_layer 4" DIFFUSION_FLAGS="--num_sampling_steps 250 --num_samples 50000 --cfg_cond True" echo $MODEL_FLAGS echo $DIFFUSION_FLAGS echo $MODEL_PATH python -m torch.distributed.launch --nproc_per_node=$NUM_GPUS scripts/image_sample.py --model_path $MODEL_PATH $MODEL_FLAGS $DIFFUSION_FLAGS echo $MODEL_FLAGS echo $DIFFUSION_FLAGS echo $MODEL_PATH python evaluations/evaluator.py ../dataeval/VIRTUAL_imagenet256_labeled.npz $OPENAI_LOGDIR/samples_50000x256x256x3.npz echo '类条件采样:' MODEL_FLAGS="--image_size 256 --model MDTv2_XL_2 --decode_layer 4" DIFFUSION_FLAGS="--num_sampling_steps 250 --num_samples 50000" echo $MODEL_FLAGS echo $DIFFUSION_FLAGS echo $MODEL_PATH python -m torch.distributed.launch --nproc_per_node=$NUM_GPUS scripts/image_sample.py --model_path $MODEL_PATH $MODEL_FLAGS $DIFFUSION_FLAGS echo $MODEL_FLAGS echo $DIFFUSION_FLAGS echo $MODEL_PATH python evaluations/evaluator.py ../dataeval/VIRTUAL_imagenet256_labeled.npz $OPENAI_LOGDIR/samples_50000x256x256x3.npz
运行 infer_mdt.py 生成图像。
@misc{gao2023masked,
title={Masked Diffusion Transformer is a Strong Image Synthesizer},
author={Shanghua Gao and Pan Zhou and Ming-Ming Cheng and Shuicheng Yan},
year={2023},
eprint={2303.14389},
archivePrefix={arXiv},
primaryClass={cs.CV}
}


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务 人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。