快速生成高分辨率图像的高效能模型
PixArt-α是一个基于Transformer架构的文本到图像生成框架,能够从文本提示生成高分辨率图像,最高可达1024像素。相比于Stable Diffusion v1.5,其训练时间仅为10.8%,大幅降低成本与碳排放。用户偏好评估显示,PixArt-α在实现效率与图像质量方面表现卓越,适用于艺术创作、教育用途及生成模型研究。但需要注意的是,其在图像还原现实性和复杂任务的执行上尚有局限。查看其GitHub或arXiv以了解更多细节。
PixArt-XL-2-512x512是由Pixart-α团队开发的一种创新型的文本生成图像模型,其核心是一个基于扩散-Transformer架构的图像生成模型。这个模型通过输入文本提示,可以直接生成1024像素的高质量图像。模型的源代码在GitHub上开源,以CreativeML Open RAIL++-M协议分发,供研究和应用领域的开发者使用。
PixArt-α的训练效率非常高,只需10.8% 的Stable Diffusion v1.5的训练时间,大大节省了计算资源和成本,且显著降低了二氧化碳的排放。相比更大的先进模型RAPHAEL,其训练成本仅为1%。
方法名 | 类型 | 参数数量 | 图像数量 | GPU时间(天) |
---|---|---|---|---|
PixArt-α | 扩散 | 0.6B | 0.025B | 675 |
根据用户偏好评估,Pixart-α相比于SDXL 0.9、Stable Diffusion 2、DALLE-2和DeepFloyd等现有的先进模型,表现相当甚至更为优越。
可以使用 以下代码来运行PixArt-α模型:
from diffusers import PixArtAlphaPipeline import torch pipe = PixArtAlphaPipeline.from_pretrained("PixArt-alpha/PixArt-XL-2-512x512", torch_dtype=torch.float16) pipe = pipe.to("cuda") prompt = "An astronaut riding a green horse" images = pipe(prompt=prompt).images[0]
对内存有限制的用户,可以启用CPU卸载功能来替代使用GPU,从而优化内存利用。
尽管图像生成技术已经非常先进,但它们可能会强化或加剧社会偏见。因此,为了安全应用和防止不当内容产生,需要对潜在的局限性有所了解。
总体而言,PixArt-XL-2-512x512是一个强大而高效的文本生成图像工具,其高效的训练过程和优异的生成性能使其在艺术创作和设计领域拥有广泛的应用潜力。