Moore-AnimateAnyone

Moore-AnimateAnyone

开源人物动画生成和人脸重演项目

Moore-AnimateAnyone是一个开源的人物动画生成项目,可基于单张参考图像和动作序列生成视频动画。项目还包含人脸重演功能,能精确控制源图像表情和动作。目前已开源推理代码和预训练模型,提供在线演示。未来计划加入音频驱动的人像视频生成等新功能,持续为AIGC领域贡献创新技术。

AnimateAnyone人工智能动画生成视频合成深度学习Github开源项目

🤗 简介

更新 🔥🔥🔥 我们提出了一种基于AnimateAnyone管道的人脸重演方法:使用驱动视频的面部特征点来控制给定源图像的姿势,同时保持源图像的身份。特别地,我们从驱动视频的特征点中分离出头部姿态(包括眨眼)和嘴部运动,能够精确控制源人脸的表情和动作。我们发布了人脸重演的推理代码和预训练模型!

更新 🏋️🏋️🏋️ 我们发布了训练代码!现在你可以训练自己的AnimateAnyone模型了。更多详情请参见此处。祝玩得开心!

更新:🔥🔥🔥 我们在这里推出了Moore-AnimateAnyone的HuggingFace Spaces演示!

本仓库复现了AnimateAnyone。为了与原论文展示的结果保持一致,我们采用了各种方法和技巧,这可能与论文和另一个实现略有不同。

值得注意的是,这是一个非常初步的版本,旨在接近AnimateAnyone展示的性能(根据我们的测试,大约为80%)。

我们将继续开发它,同时欢迎社区提供反馈和想法。增强版本也将在我们的MoBi MaLiang AIGC平台上推出,在我们自己的全功能GPU S4000云计算平台上运行。

📝 发布计划

  • AnimateAnyone的推理代码和预训练权重
  • AnimateAnyone的训练脚本
  • 人脸重演的推理代码和预训练权重
  • 人脸重演的训练脚本
  • 音频驱动肖像视频生成的推理脚本
  • 音频驱动肖像视频生成的训练脚本

🎞️ 示例

AnimateAnyone

以下是我们生成的一些AnimateAnyone结果,分辨率为512x768。

[视频示例]

局限性:我们在当前版本中观察到以下缺点:

  1. 当参考图像有干净背景时,背景可能会出现一些伪影
  2. 当参考图像和关键点之间存在尺度不匹配时,可能会出现次优结果。我们尚未实现论文中提到的预处理技术。
  3. 当动作序列细微或场景静态时,可能会出现一些闪烁和抖动。

这些问题将在近期得到解决和改进。感谢您的期待!

人脸重演

以下是我们生成的一些结果,分辨率为512x512。

[视频示例]

⚒️ 安装

构建环境

我们推荐使用Python版本>=3.10和CUDA版本=11.7。然后按如下步骤构建环境:

# [可选] 创建虚拟环境 python -m venv .venv source .venv/bin/activate # 使用pip安装: pip install -r requirements.txt # 用于面部特征点提取 git clone https://github.com/emilianavt/OpenSeeFace.git

下载权重

自动下载:你可以运行以下命令自动下载权重:

python tools/download_weights.py

权重将被放置在./pretrained_weights目录下。整个下载过程可能需要较长时间。

手动下载:你也可以手动下载权重,步骤如下:

  1. 下载我们的AnimateAnyone训练权重,包括四个部分:denoising_unet.pthreference_unet.pthpose_guider.pthmotion_module.pth

  2. 下载我们的人脸重演训练权重,并将这些权重放在pretrained_weights下。

  3. 下载基础模型和其他组件的预训练权重:

  4. 按照这里的说明下载dwpose权重(dw-ll_ucoco_384.onnxyolox_l.onnx)。

最后,这些权重应按如下方式组织:

[文件结构]

注意:如果你已经安装了一些预训练模型,如StableDiffusion V1.5,你可以在配置文件中指定它们的路径(例如./config/prompts/animation.yaml)。

🚀 训练和推理

AnimateAnyone的推理

以下是运行推理脚本的命令行指令:

python -m scripts.pose2vid --config ./configs/prompts/animation.yaml -W 512 -H 784 -L 64

你可以参考animation.yaml的格式来添加自己的参考图像或姿势视频。要将原始视频转换为姿势视频(关键点序列),你可以运行以下命令:

python tools/vid2pose.py --video_path /path/to/your/video.mp4

人脸重演的推理

以下是运行推理脚本的命令行指令:

python -m scripts.lmks2vid --config ./configs/prompts/inference_reenact.yaml --driving_video_path 你自己的驱动视频路径 --source_image_path 你自己的源图像路径

我们在./config/inference/talkinghead_images中提供了一些人脸图像,在./config/inference/talkinghead_videos中提供了一些人脸视频用于推理。

<span id="train"> AnimateAnyone的训练 </span>

注意:软件包依赖已更新,在训练之前,你可以通过pip install -r requirements.txt升级你的环境。

数据准备

从原始视频中提取关键点:

python tools/extract_dwpose_from_vid.py --video_root /path/to/your/video_dir

提取数据集的元信息:

python tools/extract_meta_info.py --root_path /path/to/your/video_dir --dataset_name anyone

更新训练配置文件中的以下行:

data: meta_paths: - "./data/anyone_meta.json"

第一阶段

openpose controlnet权重放在./pretrained_weights下,用于初始化姿态引导器。

sd-image-variation放在./pretrained_weights下,用于初始化unet权重。

运行命令:

accelerate launch train_stage_1.py --config configs/train/stage1.yaml

第二阶段

将预训练的运动模块权重mm_sd_v15_v2.ckpt下载链接)放在./pretrained_weights下。

在配置文件stage2.yaml中指定第一阶段的训练权重,例如:

stage1_ckpt_dir: './exp_output/stage1' stage1_ckpt_step: 30000

运行命令:

accelerate launch train_stage_2.py --config configs/train/stage2.yaml

🎨 Gradio演示

HuggingFace演示:我们在HuggingFace Spaces上发布了Moore-AnimateAnyone的快速预览演示! 我们感谢HuggingFace团队在设置这个演示时提供的帮助。

为了减少等待时间,我们在生成视频时限制了大小(宽度、高度和长度)和推理步骤。

如果你有自己的GPU资源(>= 16GB显存),你可以通过以下命令运行本地gradio应用:

python app.py

社区贡献

🖌️ 在Mobi MaLiang上尝试

我们将在我们的MoBi MaLiang AIGC平台上发布这个模型,该平台运行在我们自己的全功能GPU S4000云计算平台上。Mobi MaLiang现已集成各种AIGC应用和功能(如文本生成图像、可控生成等)。你可以通过点击此链接或使用微信扫描下方二维码来体验它!

<p align="left"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/79871f54-dec0-407d-aa4d-e604e4280883.png" width="100 "/> </p>

⚖️ 免责声明

本项目仅用于学术研究,我们明确声明不对用户生成的内容负责。用户在使用生成模型时对自己的行为负全责。项目贡献者与用户的行为没有法律关联,也不承担任何责任。使用生成模型时必须遵守道德和法律标准,负责任地使用。

🙏🏻 致谢

我们首先感谢AnimateAnyone的作者。此外,我们要感谢majic-animateanimatediffOpen-AnimateAnyone仓库的贡献者,感谢他们的开放研究和探索。此外,我们的仓库还包含了来自dwposeanimatediff-cli-prompt-travel的一些代码,我们也向他们表示感谢。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多