giffusion

giffusion

基于Stable Diffusion的高级AI动画生成工具

GIFfusion是一款基于Stable Diffusion的Web UI工具,专门用于生成GIF和视频动画。该工具支持图像、音频和视频等多种媒体输入,并提供关键帧插值、动画控制和一致性优化等功能。GIFfusion还具备会话管理、自定义管道和提示词权重等高级特性,有助于创建高质量的AI生成动画。这个开源项目适合各类创意工作者和AI动画爱好者使用。

GIFfusionStable Diffusion生成式AI动画制作关键帧Github开源项目

GIFfusion 💥

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/e0d2ec85-af4a-4368-9392-c5b063e473f6.gif" width="256" title="hover text"> </p>

Giffusion是一个使用Stable Diffusion生成GIF和视频的Web界面。

在Colab中打开 在Comet中打开

运行方法

在Colab中

打开上面链接的Colab笔记本,按照说明启动Giffusion界面

在本地机器上

克隆Giffusion仓库

git clone https://github.com/DN6/giffusion.git && cd giffusion

安装依赖

pip install -r requirements.txt

启动应用

python app.py

功能

保存和加载会话

Giffusion使用Hugging Face Hub保存输出生成和设置。要保存和加载会话,首先需要使用huggingface-cli login设置Hugging Face访问令牌。

设置完成后,可以通过点击会话设置中的保存会话按钮来保存会话。这将在Hub上创建一个数据集仓库,并将设置和输出生成保存到一个随机生成名称的文件夹中。您也可以手动设置Repo ID和会话名称,以将会话保存到特定仓库。

加载会话的方式类似。只需提供要加载的会话的Repo ID和会话名称,然后点击加载会话按钮。您可以使用下拉选择器筛选界面中各个组件的设置。

自带管道

Giffusion支持使用Diffusers库中的任何管道和兼容的检查点。只需在管道设置中粘贴检查点名称和管道名称即可。

ControlNet支持

Giffusion允许使用StableDiffusionControlNetPipeline。只需粘贴要在管道中使用的ControlNet检查点即可加载。

还支持MultiControlnet。只需粘贴Hugging Face Hub中的模型检查点路径列表

lllyasviel/control_v11p_sd15_softedge, lllyasviel/control_v11f1p_sd15_depth

预处理说明: 使用Controlnets时,需要在将输入用作模型的条件信号之前对其进行预处理。Controlnet预处理设置允许您选择一组预处理选项来应用于图像。请确保按照Controlnet模型的顺序选择它们。例如,对于上面的代码片段,您需要在深度预处理器之前选择软边缘预处理器。如果在MultiControlnet设置中使用不需要处理的Controlnet模型,还提供了无处理选项。

<p align="center"> <img width="341" alt="Screenshot 2023-07-26 at 11 41 11 PM" src="https://yellow-cdn.veclightyear.com/0a4dffa0/5e1cbfdb-c967-470a-85f0-133837abe8d0.png"> </p>

自定义管道支持

您也可以在Giffusion中使用自己的自定义管道。只需在自定义管道部分粘贴管道文件的路径即可。管道文件必须遵循类似于Diffusers中的社区管道的格式。

Compel提示权重支持

现在通过Compel生成提示嵌入,并支持此处概述的权重语法。

多帧生成

Giffusion遵循类似于Deforum Art的Stable Diffusion笔记本中使用的提示语法

0: 一张柯基犬的图片
60: 一张狮子的图片

提示的第一部分表示关键帧编号,冒号后的文本是模型用来生成图像的提示。 在上面的例子中,我们要求模型在第0帧生成一只柯基犬的图片,在第60帧生成一头狮子的图片。那么,这两个关键帧之间的所有图像是如何生成的呢?

你可能还记得,扩散模型的工作原理是将噪声转化为图像。Stable Diffusion将噪声张量转换为潜在嵌入,以在运行扩散过程时节省时间和内存。这个潜在嵌入被输入到解码器中以生成图像。

我们模型的输入是噪声张量和文本嵌入张量。以我们的关键帧作为起点和终点,我们可以通过插值这些张量来生成这些帧之间的图像。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/ee7308fa-e0f6-4f0b-96c1-324edf564039.gif" width="256" title="hover text"> </p>

灵感按钮

创建提示可能具有挑战性。点击"给我一些灵感"按钮可以自动为你生成提示。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/ba913741-bf3d-4d21-9a48-3ab6b04970af.gif" width="800" title="hover text"> </p>

你甚至可以提供一个主题列表,让灵感按钮用作起点。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/090cfce2-66c3-4841-b1d0-e72168a1b7c5.gif" width="800" title="hover text"> </p>

多媒体支持

使用额外的媒体输入来增强图像生成过程

<details> <summary>图像输入</summary>

你可以使用初始图像来播种生成过程。使用"图像输入"下拉菜单上传你的文件。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/531d3e39-6425-4dd0-a736-bd82608d6391.gif" width="800" title="hover text"> </p> <p align="center"> <a align="center" href="https://www.krea.ai/prompt/184bf3cf-ec0d-4ff8-b4f1-45577799700b">图像来源</a> </p> </details> <details> <summary>音频输入</summary>

使用音频驱动你的GIF和视频动画。

https://user-images.githubusercontent.com/7529846/204550897-70777873-30ca-46a9-a74e-65b6ef429958.mp4

要使用音频驱动你的动画,

  1. 转到"音频输入"下拉菜单并上传你的音频文件。
  2. 点击"获取关键帧信息"。这将根据你选择的"音频组件"从音频中提取关键帧。你可以根据文件的打击乐、和声或组合音频组件提取关键帧。

此外,还会提取这些关键帧的时间戳信息以供参考,以防你想将提示与音频中的特定时间同步。

注意: 关键帧会根据你在UI中设置的帧率而变化。

</details> <details> <summary>视频输入</summary>

你可以使用现有视频的帧作为扩散过程中的初始图像。

https://user-images.githubusercontent.com/7529846/204550451-5d2162dc-5d6b-4ecd-b1ed-c15cb56bc224.mp4

使用视频初始化:

  1. 转到"视频输入"下拉菜单

  2. 上传你的文件。点击"获取关键帧信息"以提取视频中存在的最大帧数,并将UI中的帧率设置更新为与输入视频的帧率匹配。

</details>

重新采样输出生成

你可以重新采样在输出标签中创建的视频和GIF,并将它们发送到图像输入或视频输入。

<details> <summary>重新采样到图像输入</summary>

要从视频中采样图像,请选择要从输出视频或GIF中采样的帧ID,然后点击"发送到图像输入"

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/7fab4d7d-0f4d-4522-ba65-5f59582cc814.gif" width="800" title="hover text"> </p> </details> <details> <summary>重新采样到视频输入</summary>

要重新采样视频,请点击"发送到视频输入"

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/8bed9d3c-fad6-4e16-83fe-b39bab249e65.gif" width="800" title="hover text"> </p> </details> </details>

保存到 Comet

GIFfusion 还支持将提示词、生成的 GIF/视频、图像和设置保存到 Comet,这样你就可以跟踪你的生成实验。

点击这里查看一个包含我的一些 GIF 的示例项目!

扩散设置

本节涵盖扩散设置下拉菜单中的所有组件。

  1. 使用固定潜在向量: 在整个生成过程中为每一帧使用相同的噪声潜在向量。如果你只想在提示词嵌入之间进行插值而保持噪声潜在向量不变,这个选项会很有用。

  2. 使用提示词嵌入: 默认情况下,Giffusion 将你的提示词转换为嵌入,并在帧之间的提示词嵌入之间进行插值。如果你禁用此选项,Giffusion 将会在帧之间前向填充文本提示词。如果你使用 ComposableDiffusion 管道或想直接使用管道的提示词嵌入功能,请禁用此选项。

  3. 数字种子: 用于噪声潜在向量生成过程的种子。如果没有设置 使用固定潜在向量,这个种子将用于生成一个为每个关键帧提供唯一种子的计划。

  4. 迭代步数: 在生成过程中使用的步数。

  5. 无分类器引导比例: 更高的引导比例会鼓励生成与文本提示密切相关的图像,通常以降低图像质量为代价。

  6. 图像强度计划: 表示对参考图像进行变换的程度。必须在 0 和 1 之间。较大的强度值将执行更多的去噪步骤。这仅适用于 Img2Img 类型的管道。计划遵循与运动输入类似的格式。例如,0:(0.5), 10:(0.7) 将在第 0 帧到第 10 帧之间将强度值从 0.5 增加到 0.7

  7. 使用默认管道调度器: 选择使用已预先配置好的管道调度器。

  8. 调度器: 调度器接收训练模型的输出、扩散过程正在迭代的样本和时间步长,以返回去噪后的样本。不同的调度器需要不同数量的迭代步骤来产生好的结果。使用此选择器来尝试不同的调度器和管道。

  9. 调度器参数: 传递给所选调度器的额外关键字参数。

  10. 批量大小: 设置生成过程中使用的批量大小。如果你有访问内存更大的 GPU 的权限,可以增加批量大小来提高生成过程的速度。

  11. 图像高度: 默认情况下,生成的图像高度为 512 像素。某些模型和管道支持生成更高分辨率的图像。调整此设置以适应这些配置。如果提供了图像或视频输入,高度将设置为原始输入的高度。

  12. 图像宽度: 默认情况下,生成的图像宽度为 512 像素。某些模型和管道支持生成更高分辨率的图像。调整此设置以适应这些配置。如果提供了图像或视频输入,宽度将设置为原始输入的宽度。

  13. 潜在通道数: 这用于设置噪声潜在向量的通道维度。某些管道,例如 InstructPix2Pix,要求潜在通道数与 Unet 模型的输入通道数不同。默认值 4 应该适用于大多数管道和模型。

  14. 额外管道参数: Diffuser 管道根据任务支持各种参数。使用此文本框输入一个字典值,该值将作为关键字参数传递给管道对象。例如,将图像引导比例参数传递给 InstructPix2PixPipeline。

动画设置

插值类型

Giffusion 通过首先为提供的关键帧生成提示词嵌入和初始潜在向量,然后使用球面插值来插入中间值来生成动画。控制插值值之间变化率的计划默认为 线性

你可以使用此下拉菜单将此计划更改为 正弦曲线

正弦:

使用 正弦 计划将在你的起始和结束潜在向量和嵌入之间使用以下函数进行插值 np.sin(np.pi * frequency) ** 2,默认频率值为 1.0。这将产生一个单一振荡,使生成的输出从你的起始提示词移动到结束提示词,然后再返回。将频率加倍会使振荡次数加倍。

正弦插值还支持使用多个频率。在 插值参数 中输入 1.0, 2.0 将组合这两个频率的正弦波。

<details> <summary>正弦插值</summary> <p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/9d002dff-2206-4739-a161-08b888322525.gif" width="512" title="hover text"> </p> **曲线:**

你也可以使用Chigozie Nri的关键帧DSL手动定义动画的插值曲线,该DSL遵循Deforum格式

一个示例曲线如下:

0: (0.0), 50: (1.0), 60: (0.5)

曲线值必须在0.0到1.0之间。

动作设置

Giffusion允许你使用关键帧动画字符串来控制图像在各帧之间的角度、缩放和平移。这些动画字符串遵循与Deforum完全相同的格式。目前,Giffusion仅支持2D动画,并允许你控制以下参数:

  • 缩放:以乘法方式调整画布大小。1表示静态,大于1的数值表示向前移动,小于1的数值表示向后移动。
  • 角度:每帧顺时针或逆时针旋转画布的度数。此参数使用正值表示逆时针旋转,负值表示顺时针旋转。
  • X轴平移:X方向上移动的像素数。向左或向右移动画布。此参数使用正值表示向右移动,负值表示向左移动。
  • Y轴平移:Y方向上移动的像素数。向上或向下移动画布。此参数使用正值表示向上移动,负值表示向下移动。

缩放参数示例

0: (1.05),1: (1.05),2: (1.05),3: (1.05),4: (1.05),5: (1.05),6: (1.05),7: (1.05),8: (1.05),9: (1.05),10: (1.05)

角度参数示例

0: (10.0),1: (10.0),2: (10.0),3: (10.0),4: (10.0),5: (10.0),6: (10.0),7: (10.0),8: (10.0),9: (10.0),10: (10.0)

X/Y轴平移参数示例

0: (5.0),1: (5.0),2: (5.0),3: (5.0),4: (5.0),5: (5.0),6: (5.0),7: (5.0),8: (5.0),9: (5.0),10: (5.0)

一致性

一致性是一种在创建动画时在各帧之间保持特征的方法。它仅适用于在运行扩散过程时产生潜在编码的模型。为了实现这一点,我们计算当前潜在编码相对于参考潜在编码(通常是前一帧的潜在编码)的梯度。

# 计算当前潜在编码相对于参考潜在编码的梯度 for step in range(coherence_steps): loss = (latents - reference_latent).pow(2).mean() cond_grad = torch.autograd.grad(loss, latents)[0] latents = latents - (coherence_scale * cond_grad) # 根据一致性alpha值更新参考潜在编码 reference_latent = (coherence_alpha * latents) + ( 1.0 - coherence_alpha ) * reference_latent
  1. 一致性比例: 增加此值将使当前帧看起来更像参考帧。
  2. 一致性alpha: 控制当前帧的潜在编码与参考帧的潜在编码的混合程度。增加该值将在计算梯度时更多地考虑最近的帧。
  3. 一致性步骤: 在扩散过程中应用回调的频率。例如,将其设置为2,将在扩散过程的每两个步骤运行一次回调。
  4. 噪声调度: 为了扩散多样性而添加到潜在编码的噪声量。较高的值会导致更多的多样性。仅当一致性大于0.0时才应用噪声。
  5. 应用颜色匹配: 使用第一个生成的帧作为参考,对当前帧应用LAB直方图颜色匹配。这有助于减少生成过程中图像之间的剧烈颜色变化。

输出设置

  1. 输出格式: 将输出格式设置为GIF或MP4视频。
  2. 帧率: 设置输出的帧率。

参考资料

没有以下资源,Giffusion将无法实现 ❤️

  1. 提示词格式基于Deforum Art的工作
  2. 灵感按钮使用DoEvent开发的Midjourney提示词生成器空间
  3. 带有音频响应的Stable Diffusion视频
  4. Comet ML项目,展示了一些使用Giffusion制作的作品
  5. Gradio文档:本项目的用户界面是使用Gradio构建的
  6. Hugging Face Diffusers
  7. Keyframed用于曲线插值

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多