
DEADiff模型实现高效风格化图像生成
DEADiff是一种风格化扩散模型,通过参考图像风格和文本提示生成新颖图像。该模型利用解耦表示技术,实现高效风格迁移和文本引导图像生成。DEADiff可将多种风格应用于不同场景,同时保持内容准确性。这项研究由中国科学技术大学和字节跳动的团队完成,并在CVPR 2024上发表。
<a href='https://arxiv.org/abs/2403.06951'><img src='https://yellow-cdn.veclightyear.com/835a84d5/bb3b872e-6aa7-4e8f-b855-d173e4a3d91a.svg'></a> <a href='https://tianhao-qi.github.io/DEADiff/'><img src='https://img.shields.io/badge/Project-Page-Green'></a>
齐天浩*、方善成、吴彦泽✝、谢洪涛✉、刘嘉伟、<br>陈朗、何倩、张勇东 <br><br> (*在字节跳动实习期间完成的工作,✝项目负责人,✉通讯作者)
来自中国科学技术大学和字节跳动。
</div>简要概述: 我们提出了DEADiff,这是一种通用方法,可以方便地合成具有给定参考图像风格并符合文本提示的新图像。 <br>
conda create -n deadiff python=3.9.2 conda activate deadiff conda install pytorch==2.0.0 torchvision==0.15.0 torchaudio==2.0.0 pytorch-cuda=11.8 -c pytorch -c nvidia pip install git+https://github.com/salesforce/LAVIS.git@20230801-blip-diffusion-edit pip install -r requirements.txt pip install -e .
python3 scripts/app.py
Gradio应用程序允许您从参考图像转移风格。尝试一下以获取更多详细信息。
提示:"一个卷发男孩"
提示:"一个机器人"
提示:"一辆摩托车"
我们开发此代码库用于研究目的,因此它只能用于个人/研究/非商业用途。
@article{qi2024deadiff, title={DEADiff: An Efficient Stylization Diffusion Model with Disentangled Representations}, author={Qi, Tianhao and Fang, Shancheng and Wu, Yanze and Xie, Hongtao and Liu, Jiawei and Chen, Lang and He, Qian and Zhang, Yongdong}, journal={arXiv preprint arXiv:2403.06951}, year={2024} }
如果您有任何意见或问题,请随时联系 qth@mail.ustc.edu.cn