
Diffusion Transformer模型实现4K文本到图像生成
PixArt-Σ是一个基于Diffusion Transformer的文本到图像生成模型。通过Weak-to-Strong训练方法,该模型支持4K分辨率生成,采用300长度T5 token和SDXL VAE。相比前代PixArt-α,PixArt-Σ具有更强的生成能力。项目提供开源代码、多种分辨率预训练权重、diffusers库集成支持和在线演示。
本仓库包含我们论文中探索的用于4K文本到图像生成的扩散变换器弱到强训练的PyTorch模型定义、预训练权重和推理/采样代码。您可以在我们的项目页面上找到更多可视化效果。
PixArt-Σ: 用于4K文本到图像生成的扩散变换器的弱到强训练<br> 陈俊松*, 葛崇剑*, 谢恩泽*†, 吴越*, 姚乐为, 任晓哲, 王忠道, 骆平, 卢湖川, 李志国 <br>华为诺亚方舟实验室, 大连理工大学, 香港大学, 香港科技大学<br>
吸取了之前PixArt-α项目的经验, 我们将尽量保持这个仓库的简洁,以便PixArt社区的每个人都能使用。
🧨 diffusers以获得快速体验!-主要内容
-指南
-其他
| 模型 | T5令牌长度 | VAE | 2K/4K |
|---|---|---|---|
| PixArt-Σ | 300 | SDXL | ✅ |
| PixArt-α | 120 | SD1.5 | ❌ |
| 模型 | 样本-1 | 样本-2 | 样本-3 |
| ---------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| PixArt-Σ | <img src="https://yellow-cdn.veclightyear.com/835a84d5/e346dd95-ae4d-40af-858a-29c4bea615ed.webp" width=256> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/b880fdae-d5e4-4bc6-86c2-897c4247cbf6.webp" width=512> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/7fe7853d-99ca-484e-8972-b6ad66a68507.webp" width=512> |
| PixArt-α | <img src="https://yellow-cdn.veclightyear.com/835a84d5/67a45151-191a-4759-94a1-17b59edbbfa6.webp" width=256> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/e184a4e5-a140-4466-b7db-f3dfc9a26a58.webp" width=512> | <img src="https://yellow-cdn.veclightyear.com/835a84d5/72002c5e-9a52-4aae-9f99-1563a1c739a8.webp" width=512> |
| 提示词 | 特写,灰发,60多岁留胡子的男子,穿羊毛外套和棕色贝雷帽,戴眼镜,观察路人,电影感。 | 全身照,一位法国女性,摄影,法国街道背景,逆光,轮廓光,富士胶片。 | 两艘海盗船在一杯咖啡中航行作战的超写实特写视频。 |
conda create -n pixart python==3.9.0 conda activate pixart conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 pytorch-cuda=11.7 -c pytorch -c nvidia git clone https://github.com/PixArt-alpha/PixArt-sigma.git cd PixArt-sigma pip install -r requirements.txt
首先。
我们开始了一个新的仓库,以构建一个更加用户友好和兼容的代码库。主要模型结构与PixArt-α相同, 您仍然可以基于原始仓库开发您的功能。 此仓库未来也将支持PixArt-alpha。
[!提示]
现在您可以在无需事先提取特征的情况下训练您的模型。 我们重构了PixArt-α代码库中的数据结构,所以每个人都可以在一开始就轻松地训练、推理和可视化。
首先下载玩具数据集。 用于训练的数据集结构如下:
cd ./pixart-sigma-toy-dataset
数据集结构
├──InternImgs/ (图像保存在这里)
│ ├──000000000000.png
│ ├──000000000001.png
│ ├──......
├──InternData/
│ ├──data_info.json (元数据)
可选(👇)
│ ├──img_sdxl_vae_features_1024resolution_ms_new (运行tools/extract_caption_feature.py生成标题T5特征,与图像同名,扩展名为.npz)
│ │ ├──000000000000.npy
│ │ ├──000000000001.npy
│ │ ├──......
│ ├──caption_features_new
│ │ ├──000000000000.npz
│ │ ├──000000000001.npz
│ │ ├──......
│ ├──sharegpt4v_caption_features_new (运行tools/extract_caption_feature.py生成标题T5特征,与图像同名,扩展名为.npz)
│ │ ├──000000000000.npz
│ │ ├──000000000001.npz
│ │ ├──......
# SDXL-VAE, T5检查点 git lfs install git clone https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers output/pretrained_models/pixart_sigma_sdxlvae_T5_diffusers # PixArt-Sigma检查点 python tools/download.py # 环境变量例如HF_ENDPOINT=https://hf-mirror.com可用于HuggingFace镜像
从配置文件目录中选择您想要的配置文件。
python -m torch.distributed.launch --nproc_per_node=1 --master_port=12345 \ train_scripts/train.py \ configs/pixart_sigma_config/PixArt_sigma_xl2_img512_internalms.py \ --load-from output/pretrained_models/PixArt-Sigma-XL-2-512-MS.pth \ --work-dir output/your_first_pixart-exp \ --debug
首先安装所需的依赖项。确保您已从模型(即将推出)下载检查点文 件
到output/pretrained_models文件夹,然后在本地机器上运行:
# SDXL-VAE, T5检查点 git lfs install git clone https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers output/pixart_sigma_sdxlvae_T5_diffusers # PixArt-Sigma检查点 python tools/download.py # 启动演示 python scripts/interface.py --model_path output/pretrained_models/PixArt-Sigma-XL-2-512-MS.pth --image_size 512 --port 11223
[!重要]
升级您的diffusers以使PixArtSigmaPipeline可用!pip install git+https://github.com/huggingface/diffusers对于
diffusers<0.28.0,请查看此脚本以获取帮助。
import torch from diffusers import Transformer2DModel, PixArtSigmaPipeline device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") weight_dtype = torch.float16 transformer = Transformer2DModel.from_pretrained( "PixArt-alpha/PixArt-Sigma-XL-2-1024-MS", subfolder='transformer', torch_dtype=weight_dtype, use_safetensors=True, ) pipe = PixArtSigmaPipeline.from_pretrained( "PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers", transformer=transformer, torch_dtype=weight_dtype, use_safetensors=True, ) pipe.to(device) # 启用内存优化。 # pipe.enable_model_cpu_offload() prompt = "撒哈拉沙漠中一个带有开心表情的小仙人掌。" image = pipe(prompt).images[0] image.save("./catcus.png")
pip install git+https://github.com/huggingface/diffusers
DEMO_PORT=12345 python app/app_pixart_sigma.py
DEMO_PORT=12345 python app/app_pixart_dmd.py
让我们来看一个使用`http://your-server-ip:12345`的简单示例。
## 4. 将.pth检查点转换为diffusers版本
直接从[Hugging Face](https://huggingface.co/PixArt-alpha/PixArt-Sigma-XL-2-1024-MS)下载
或运行以下命令:
```bash
pip install git+https://github.com/huggingface/diffusers
python tools/convert_pixart_to_diffusers.py --orig_ckpt_path output/pretrained_models/PixArt-Sigma-XL-2-1024-MS.pth --dump_path output/pretrained_models/PixArt-Sigma-XL-2-1024-MS --only_transformer=True --image_size=1024 --version sigma
| 模型 | 参数数量 | 检查点路径 | 在OpenXLab下载 |
|---|---|---|---|
| T5 & SDXL-VAE | 4.5B | Diffusers: pixart_sigma_sdxlvae_T5_diffusers | 即将推出 |
| PixArt-Σ-256 | 0.6B | pth: PixArt-Sigma-XL-2-256x256.pth <br/> Diffusers: PixArt-Sigma-XL-2-256x256 | 即将推出 |
| PixArt-Σ-512 | 0.6B | pth: PixArt-Sigma-XL-2-512-MS.pth <br/> Diffusers: PixArt-Sigma-XL-2-512-MS | 即将推出 |
| PixArt-α-512-DMD | 0.6B | Diffusers: PixArt-Alpha-DMD-XL-2-512x512 | 即将推出 |
| PixArt-Σ-1024 | 0.6B | pth: PixArt-Sigma-XL-2-1024-MS.pth <br/> Diffusers: PixArt-Sigma-XL-2-1024-MS | 即将推出 |
| PixArt-Σ-2K | 0.6B | pth: PixArt-Sigma-XL-2-2K-MS.pth <br/> Diffusers: PixArt-Sigma-XL-2-2K-MS | 即将推出 |
我们将尽最大努力发布
@misc{chen2024pixartsigma,
title={PixArt-\Sigma: Weak-to-Strong Training of Diffusion Transformer for 4K Text-to-Image Generation},
author={Junsong Chen and Chongjian Ge and Enze Xie and Yue Wu and Lewei Yao and Xiaozhe Ren and Zhongdao Wang and Ping Luo and Huchuan Lu and Zhenguo Li},
year={2024},
eprint={2403.04692},
archivePrefix={arXiv},
primaryClass={cs.CV}


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号