去中心化低秩适应技术实现扩散模型的多概念定制
Mix-of-Show是一种扩散模型多概念定制技术,通过去中心化低秩适应实现单概念和多概念融合。它可生成高质量动漫和真实人物图像,无需正则化数据集,支持区域可控的多概念采样。该项目开源了训练和推理代码,为扩散模型个性化提供新方案。
🚩🚩🚩: 社区版主分支已发布(持续更新中)。
Mix-of-Show的官方代码。此分支用于应用,包括简化的代码、内存/速度优化和性能改进。研究用途请参考原始研究分支(论文结果、评估和比较方法)。
[NeurIPS 2023]- Mix-of-Show: 扩散模型多概念定制化的去中心化低秩适应 <br/> 顾宇超、王鑫涛、吴张杰、石云君、陈云鹏、范子涵、肖武游、赵睿、常树宁、吴伟佳、葛一晓、单瑛、Mike Zheng Shou <br/>
与LoRA的区别:
在ED-LoRA中,嵌入(LoRA权重=0)已经编码了稳定的身份(以哈利波特为例):
基于ED-LoRA,我们可以支持多概念融合而不会丢失太多身份。
概念列表:
动漫角色:
真实角色:
将Mix-of-Show与Stable Diffusion Video结合用于动画制作:
https://github.com/TencentARC/Mix-of-Show/assets/31696690/5a677e99-2c86-41dc-a9da-ba92b3155717
我们采用ChilloutMix用于真实世界概念,Anything-v4用于动漫概念。
git clone https://github.com/TencentARC/Mix-of-Show.git cd experiments/pretrained_models # Diffusers版本的ChilloutMix git-lfs clone https://huggingface.co/windwhinny/chilloutmix.git # Diffusers版本的Anything-v4 git-lfs clone https://huggingface.co/andite/anything-v4.0.git
注意:数据选择 和标注在单概念调优中很重要。我们强烈建议查看sd-scripts中的数据处理。在我们的ED-LoRA中,我们不需要任何正则化数据集。 详细的数据集准备步骤可以参考Dataset.md。我们在本仓库中使用的预处理数据可在Google Drive上获取。
在调优之前,必须在相应的配置文件中指定数据路径并调整某些超参数。以下是一些需要修改的基本配置设置。
datasets: train: # 概念数据配置 concept_list: datasets/data_cfgs/edlora/single-concept/characters/anime/hina_amano.json replace_mapping: <TOK>: <hina1> <hina2> # 概念新标记 val_vis: # 调优过程中用于可视化的验证提示 prompts: datasets/validation_prompts/single-concept/characters/test_girl.txt replace_mapping: <TOK>: <hina1> <hina2> # 概念新标记 models: enable_edlora: true # true表示ED-LoRA,false表示普通LoRA new_concept_token: <hina1>+<hina2> # 概念新标记,使用"+"连接 initializer_token: <rand-0.013>+girl # 初始化标记,只需根据给定概念的语义类别修改后面的部分 val: val_during_save: true # 保存检查点时,可视化样本结果。 compose_visualize: true # 将所有样本组合成一个大网格图进行可视化
我们使用2个A100 GPU调优每个概念。与LoRA类似,社区用户可以启用梯度累积、xformer、梯度检查点,以在单个GPU上进行调优。
accelerate launch train_edlora.py -opt options/train/EDLoRA/real/8101_EDLoRA_potter_Cmix_B4_Repeat500.yml
从Google Drive下载我们训练好的模型。
直接采样图像:
import torch from diffusers import DPMSolverMultistepScheduler from mixofshow.pipelines.pipeline_edlora import EDLoRAPipeline, StableDiffusionPipeline from mixofshow.utils.convert_edlora_to_diffusers import convert_edlora pretrained_model_path = 'experiments/pretrained_models/chilloutmix' lora_model_path = 'experiments/2002_EDLoRA_hermione_Cmix_B4_Iter1K/models/checkpoint-latest/edlora.pth' enable_edlora = True # True表示edlora,False表示lora pipeclass = EDLoRAPipeline if enable_edlora else StableDiffusionPipeline pipe = pipeclass.from_pretrained(pretrained_model_path, scheduler=DPMSolverMultistepScheduler.from_pretrained(pretrained_model_path, subfolder='scheduler'), torch_dtype=torch.float16).to('cuda') pipe, new_concept_cfg = convert_edlora(pipe, torch.load(lora_model_path), enable_edlora=enable_edlora, alpha=0.7) pipe.set_new_concept_cfg(new_concept_cfg) TOK = '<hermione1> <hermione2>' # TOK是训练lora/edlora时的概念名称 prompt = f'a {TOK} in front of eiffel tower, 4K, high quality, high resolution' negative_prompt = 'longbody, lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality' image = pipe(prompt, negative_prompt=negative_prompt, height=768, width=512, num_inference_steps=50, guidance_scale=7.5).images[0] image.save('res.jpg')
或者为全面可视化采样图像网格:在测试配置中指定模型路径,然后运行以下命令。
python test_edlora.py -opt options/test/EDLoRA/human/8101_EDLoRA_potter_Cmix_B4_Repeat500.yml
收集所有您想要扩展预训练模型的概念模型,并相应地修改 datasets/data_cfgs/MixofShow/multi-concept/real/* 中的配置。
[ { "lora_path": "experiments/EDLoRA_Models/Base_Chilloutmix/characters/edlora_potter.pth", # ED-LoRA 路 径 "unet_alpha": 1.0, # 通常使用完整身份 = 1.0 "text_encoder_alpha": 1.0, # 通常使用完整身份 = 1.0 "concept_name": "<potter1> <potter2>" # 新概念标记 }, { "lora_path": "experiments/EDLoRA_Models/Base_Chilloutmix/characters/edlora_hermione.pth", "unet_alpha": 1.0, "text_encoder_alpha": 1.0, "concept_name": "<hermione1> <hermione2>" }, ... # 继续添加新概念以扩展预训练模型 ]
bash fuse.sh
从谷歌云盘下载我们的融合模型。
从融合模型进行单概念采样:
import json import os import torch from diffusers import DPMSolverMultistepScheduler from mixofshow.pipelines.pipeline_edlora import EDLoRAPipeline 预训练模型路径 = 'experiments/composed_edlora/chilloutmix/potter+hermione+thanos_chilloutmix/combined_model_base' 启用_edlora = True # True 表示启用 edlora,False 表示启用 lora pipe = EDLoRAPipeline.from_pretrained(预训练模型路径, scheduler=DPMSolverMultistepScheduler.from_pretrained(预训练模型路径, subfolder='scheduler'), torch_dtype=torch.float16).to('cuda') with open(f'{预训练模型路径}/new_concept_cfg.json', 'r') as fr: 新概念配置 = json.load(fr) pipe.set_new_concept_cfg(新概念配置) 标记 = '<thanos1> <thanos2>' # 标记是训练 lora/edlora 时的概念名称 提示词 = f'一个{标记}站在富士山前' 负面提示词 = '长身体,低分辨率,不良解剖,糟糕的手,缺少手指,额外的手指,较少的手指,裁剪,最差质量,低质量' 图像 = pipe(提示词, negative_prompt=负面提示词, height=1024, width=512, num_inference_steps=50, generator=torch.Generator('cuda').manual_seed(1), guidance_scale=7.5).images[0] 图像.save(f'结果.jpg')
区域可控的多概念采样:
bash regionally_sample.sh
本项目基于Apache 2.0 许可证发布。<br> 此代码库基于diffusers构建。感谢他们的开源贡献!此外,我们还要感谢以下令人惊叹的开源项目:
LoRA for Diffusion Models (https://github.com/cloneofsimo/lora, https://github.com/kohya-ss/sd-scripts)。
Custom Diffusion (https://github.com/adobe-research/custom-diffusion)。
T2I-Adapter (https://github.com/TencentARC/T2I-Adapter)。
@article{gu2023mixofshow, title={Mix-of-Show: Decentralized Low-Rank Adaptation for Multi-Concept Customization of Diffusion Models}, author={Gu, Yuchao and Wang, Xintao and Wu, Jay Zhangjie and Shi, Yujun and Chen Yunpeng and Fan, Zihan and Xiao, Wuyou and Zhao, Rui and Chang, Shuning and Wu, Weijia and Ge, Yixiao and Shan Ying and Shou, Mike Zheng}, journal={arXiv preprint arXiv:2305.18292}, year={2023} }
如果您有任何问题或改进建议,请发送电子邮件至 Yuchao Gu (yuchaogu9710@gmail.com),或提出一个 issue。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型) 驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、 学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号