ReNoise-Inversion

ReNoise-Inversion

迭代重噪图像反演方法提升重建精度和编辑效果

ReNoise-Inversion项目开发了一种创新的图像反演方法,利用迭代重噪机制提高重建精度,同时保持低操作成本。该方法适用于多种采样算法和模型,包括最新的加速扩散模型。实验表明,ReNoise技术在精确度和速度方面表现优异,同时保持了图像的可编辑性。这一技术为基于文本的真实图像编辑开辟了新途径。

ReNoise图像反演扩散模型AI图像处理迭代噪声Github开源项目

ReNoise:通过迭代噪声实现真实图像反演

Daniel Garibi, Or Patashnik, Andrey Voynov, Hadar Averbuch-Elor, Daniel Cohen-Or

文本引导扩散模型的最新进展已经解锁了强大的图像操作能力。然而,将这些方法应用于真实图像需要将图像反演到预训练扩散模型的域中。实现忠实的反演仍然是一个挑战,特别是对于最近训练的模型,这些模型使用少量去噪步骤生成图像。在这项工作中,我们提出了一种具有高质量操作比的反演方法,在不增加操作数的情况下提高重建精度。基于反转扩散采样过程,我们的方法在每个反演采样步骤中采用迭代重噪机制。该机制通过迭代应用预训练的扩散模型并平均这些预测,来改进前向扩散轨迹上预测点的近似。我们使用各种采样算法和模型(包括最新的加速扩散模型)评估了我们的ReNoise技术的性能。通过全面的评估和比较,我们展示了其在精度和速度方面的有效性。此外,我们通过展示对真实图像的文本驱动图像编辑,确认我们的方法保留了可编辑性。

<a href="https://garibida.github.io/ReNoise-Inversion/"><img src="https://img.shields.io/static/v1?label=Project&message=Website&color=red" height=20.5></a> <a href="https://arxiv.org/abs/2403.14602"><img src="https://yellow-cdn.veclightyear.com/835a84d5/9324edfe-879e-4c87-8e8b-f40358931c0c.svg" height=20.5></a> Hugging Face Spaces

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/54b1ea13-27af-48c9-a6a8-554530dabaf6.jpg" width="800px"/> </p>

描述

我们ReNoise论文的官方实现。

环境设置

我们的代码基于diffusers库的要求构建。要设置环境,请运行:

conda env create -f environment.yaml
conda activate renoise_inversion

或安装要求:

pip install -r requirements.txt

演示

要运行项目的本地演示,请运行以下命令:

gradio gradio_app.py

使用方法

examples/目录中有三个如何在Stable Diffusion、SDXL和SDXL Turbo中使用反演的示例。

反演

我们创建了一个diffusers管道来执行反演。您可以使用以下代码在项目中使用ReNoise:

from src.eunms import Model_Type, Scheduler_Type from src.utils.enums_utils import get_pipes from src.config import RunConfig from main import run as invert model_type = Model_Type.SDXL_Turbo scheduler_type = Scheduler_Type.EULER pipe_inversion, pipe_inference = get_pipes(model_type, scheduler_type, device=device) input_image = Image.open("example_images/lion.jpeg").convert("RGB").resize((512, 512)) prompt = "a lion in the field" config = RunConfig(model_type = model_type, scheduler_type = scheduler_type) rec_img, inv_latent, noise, all_latents = invert(input_image, prompt, config, pipe_inversion=pipe_inversion, pipe_inference=pipe_inference, do_reconstruction=False)

您可以使用RunConfig中的以下属性控制反演参数:

  • num_inference_steps - 去噪步骤数。
  • num_inversion_steps - 反演步骤数。
  • guidance_scale - 反演过程中的引导比例。
  • num_renoise_steps - ReNoise步骤数。
  • max_num_renoise_steps_first_step - 当T<250时的最大ReNoise步骤数。
  • inversion_max_step - 反演强度。去噪步骤的数量取决于最初添加的噪声量。当强度为1.0时,图像将被反演为完全噪声,去噪过程将运行完整的步骤数。当强度为0.5时,图像将被反演为半噪声,去噪过程将运行一半的步骤。
  • num_inference_steps - 去噪步骤数
  • average_latent_estimations - 执行估计平均。
  • average_first_step_range - 当T<250时的平均范围。值是一个元组,例如(0, 5)
  • average_first_step_range - 当T>250时的平均范围。值是一个元组,例如(8, 10)
  • noise_regularization_lambda_ac - 噪声正则化成对lambda。
  • noise_regularization_lambda_kl - 噪声正则化补丁KL散度lambda。
  • perform_noise_correction - 执行噪声校正。

对于随机采样器,添加以下内容以使用与反演过程相同的\epsilon_t。

pipe_inference.scheduler.set_noise_list(noise)

编辑

要使用ReNoise编辑图像,您可以使用以下代码:

from src.eunms import Model_Type, Scheduler_Type from src.utils.enums_utils import get_pipes from src.config import RunConfig from main import run as invert model_type = Model_Type.SDXL_Turbo scheduler_type = Scheduler_Type.EULER pipe_inversion, pipe_inference = get_pipes(model_type, scheduler_type, device=device) input_image = Image.open("example_images/lion.jpeg").convert("RGB").resize((512, 512)) prompt = "a lion in the field" config = RunConfig(model_type = model_type, scheduler_type = scheduler_type) edit_img, inv_latent, noise, all_latents = invert(input_image, prompt, config, pipe_inversion=pipe_inversion, pipe_inference=pipe_inference, do_reconstruction=True, edit_prompt="a tiger in the field" ) edit_img.save("result.png")

致谢

这段代码基于diffusers库的代码构建。此外,我们借鉴了以下仓库的代码:

引用

如果您在研究中使用此代码,请引用以下工作:

@misc{garibi2024renoise,
      title={ReNoise: Real Image Inversion Through Iterative Noising}, 
      author={Daniel Garibi and Or Patashnik and Andrey Voynov and Hadar Averbuch-Elor and Daniel Cohen-Or},
      year={2024},
      eprint={2403.14602},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多