MuseTalk

MuseTalk

音频驱动的实时高质量唇形同步模型

MuseTalk是一款实时高质量的音频驱动唇形同步模型,可在NVIDIA Tesla V100上以30fps+的速度运行。该模型能根据输入音频修改未见过的人脸,支持多种语言,并可调整面部区域中心点来影响生成效果。MuseTalk在HDTF数据集上训练,可与MuseV等虚拟人技术结合,为生成具全身动作和交互能力的虚拟人奠定基础。

MuseTalk实时唇形同步AI虚拟人音频驱动潜在空间修复Github开源项目

MuseTalk

MuseTalk:使用潜在空间修复实现实时高质量唇形同步

Yue Zhang <sup>*</sup>、 Minhao Liu<sup>*</sup>、 Zhaokang Chen、 Bin Wu<sup></sup>、 Yingjie He、 Chao Zhan、 Wenjiang Zhou (<sup>*</sup>贡献相同,<sup></sup>通讯作者,benbinwu@tencent.com

腾讯音乐娱乐集团 Lyra 实验室

github huggingface space 项目(即将推出) 技术报告(即将推出)

我们推出了 MuseTalk,这是一个实时高质量的唇形同步模型(在 NVIDIA Tesla V100 上可达 30fps+)。MuseTalk 可以应用于输入视频,例如由 MuseV 生成的视频,作为一个完整的虚拟人解决方案。

:new: 更新:我们很高兴地宣布 MusePose 已经发布。MusePose 是一个图像到视频生成框架,可以根据姿势等控制信号生成虚拟人。结合 MuseV 和 MuseTalk,我们希望社区能够加入我们,朝着能够端到端生成具有全身运动和交互能力的虚拟人的愿景迈进。

招聘

加入腾讯音乐娱乐集团 Lyra 实验室!

我们目前正在招聘 AIGC 研究人员,包括实习生、应届毕业生和资深人才(实习、校招、社招)。

详情请查看以下两个链接或联系 zkangchen@tencent.com

概述

MuseTalk 是一个实时高质量的音频驱动唇形同步模型,在 ft-mse-vae 的潜在空间中训练,它具有以下特点:

  1. 根据输入音频修改未见过的人脸,人脸区域大小为 256 x 256
  2. 支持多种语言的音频,如中文、英文和日语。
  3. 在 NVIDIA Tesla V100 上支持实时推理,可达 30fps+。
  4. 支持修改人脸区域的中心点,这显著影响生成结果。
  5. 提供在 HDTF 数据集上训练的检查点。
  6. 训练代码(即将推出)。

新闻

  • [2024/04/02] 发布 MuseTalk 项目和预训练模型。
  • [2024/04/16] 在 HuggingFace Spaces 上发布 Gradio 演示(感谢 HF 团队的社区资助)
  • [2024/04/17] :mega: 我们发布了一个使用 MuseTalk 进行实时推理的流程。

模型

模型结构 MuseTalk 在潜在空间中训练,其中图像由冻结的 VAE 编码。音频由冻结的 whisper-tiny 模型编码。生成网络的架构借鉴了 stable-diffusion-v1-4 的 UNet,其中音频嵌入通过交叉注意力与图像嵌入融合。

请注意,尽管我们使用了与 Stable Diffusion 非常相似的架构,但 MuseTalk 与之不同,它不是扩散模型。相反,MuseTalk 通过单步在潜在空间进行修复操作。

案例展示

MuseV + MuseTalk 让人物照片栩栩如生!

<table class="center"> <tr style="font-weight: bolder;text-align:center;"> <td width="33%">图片</td> <td width="33%">MuseV</td> <td width="33%">+MuseTalk</td> </tr> <tr> <td> <img src=assets/demo/musk/musk.png width="95%"> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/4a4bb2d1-9d14-4ca9-85c8-7f19c39f712e controls preload></video> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/b2a879c2-e23a-4d39-911d-51f0343218e4 controls preload></video> </td> </tr> <tr> <td> <img src=assets/demo/yongen/yongen.jpeg width="95%"> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/57ef9dee-a9fd-4dc8-839b-3fbbbf0ff3f4 controls preload></video> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/94d8dcba-1bcd-4b54-9d1d-8b6fc53228f0 controls preload></video> </td> </tr> <tr> <td> <img src=assets/demo/sit/sit.jpeg width="95%"> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/5fbab81b-d3f2-4c75-abb5-14c76e51769e controls preload></video> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/f8100f4a-3df8-4151-8de2-291b09269f66 controls preload></video> </td> </tr> <tr> <td> <img src=assets/demo/man/man.png width="95%"> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/a6e7d431-5643-4745-9868-8b423a454153 controls preload></video> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/6ccf7bc7-cb48-42de-85bd-076d5ee8a623 controls preload></video> </td> </tr> <tr> <td> <img src=assets/demo/monalisa/monalisa.png width="95%"> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/1568f604-a34f-4526-a13a-7d282aa2e773 controls preload></video> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/a40784fc-a885-4c1f-9b7e-8f87b7caf4e0 controls preload></video> </td> </tr> <tr> <td> <img src=assets/demo/sun1/sun.png width="95%"> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/37a3a666-7b90-4244-8d3a-058cb0e44107 controls preload></video> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/172f4ff1-d432-45bd-a5a7-a07dec33a26b controls preload></video> </td> </tr> <tr> <td> <img src=assets/demo/sun2/sun.png width="95%"> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/37a3a666-7b90-4244-8d3a-058cb0e44107 controls preload></video> </td> <td > <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/85a6873d-a028-4cce-af2b-6c59a1f2971d controls preload></video> </td> </tr> </table >
  • 最后两行的人物"孙新颖"是一位超模网红。您可以在抖音上关注她。

视频配音

<table class="center"> <tr style="font-weight: bolder;text-align:center;"> <td width="70%">MuseTalk</td> <td width="30%">原始视频</td> </tr> <tr> <td> <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/4d7c5fa1-3550-4d52-8ed2-52f158150f24 controls preload></video> </td> <td> <a href="//www.bilibili.com/video/BV1wT411b7HU">链接</a> <href src=""></href> </td> </tr> </table>
  • 对于视频配音,我们应用了一个自主开发的工具,可以识别说话的人。

一些有趣的视频!

<table class="center"> <tr style="font-weight: bolder;text-align:center;"> <td width="50%">图片</td> <td width="50%">MuseV + MuseTalk</td> </tr> <tr> <td> <img src=assets/demo/video1/video1.png width="95%"> </td> <td> <video src=https://github.com/TMElyralab/MuseTalk/assets/163980830/1f02f9c6-8b98-475e-86b8-82ebee82fe0d controls preload></video> </td> </tr> </table>

待办事项:

  • 训练好的模型和推理代码。
  • Huggingface Gradio 演示
  • 实时推理的代码。
  • 技术报告。
  • 训练代码。
  • 更好的模型(可能需要更长时间)。

入门指南

我们为新用户提供了一个详细的教程,介绍MuseTalk的安装和基本使用方法:

第三方集成

感谢第三方集成,这使得安装和使用对每个人来说都更加方便。 我们也希望您注意,我们没有验证、维护或更新第三方集成。具体结果请参考本项目。

ComfyUI

安装

要准备Python环境并安装额外的包,如opencv、diffusers、mmcv等,请按以下步骤操作:

构建环境

我们建议Python版本>=3.10,CUDA版本=11.7。然后按如下方式构建环境:

pip install -r requirements.txt

mmlab包

pip install --no-cache-dir -U openmim mim install mmengine mim install "mmcv>=2.0.1" mim install "mmdet>=3.1.0" mim install "mmpose>=1.1.0"

下载ffmpeg-static

下载ffmpeg-static并

export FFMPEG_PATH=/path/to/ffmpeg

例如:

export FFMPEG_PATH=/musetalk/ffmpeg-4.4-amd64-static

下载权重

您可以按以下方式手动下载权重:

  1. 下载我们训练的权重

  2. 下载其他组件的权重:

最后,这些权重应该在models中按以下方式组织:

./models/
├── musetalk
│   └── musetalk.json
│   └── pytorch_model.bin
├── dwpose
│   └── dw-ll_ucoco_384.pth
├── face-parse-bisent
│   ├── 79999_iter.pth
│   └── resnet18-5c106cde.pth
├── sd-vae-ft-mse
│   ├── config.json
│   └── diffusion_pytorch_model.bin
└── whisper
    └── tiny.pt

快速开始

推理

这里,我们提供了推理脚本。

python -m scripts.inference --inference_config configs/inference/test.yaml 

configs/inference/test.yaml是推理配置文件的路径,包括video_path和audio_path。 video_path应该是视频文件、图像文件或图像目录。

建议输入25fps的视频,这与训练模型时使用的fps相同。如果您的视频帧率远低于25fps,建议应用帧插值或直接使用ffmpeg将视频转换为25fps。

使用bbox_shift获得可调整的结果

:mag_right: 我们发现蒙版上界对嘴部开合度有重要影响。因此,为了控制蒙版区域,我们建议使用bbox_shift参数。正值(向下半部移动)会增加嘴部开合度,而负值(向上半部移动)会减少嘴部开合度。

您可以先用默认配置运行以获取可调整的值范围,然后在此范围内重新运行脚本。

例如,对于Xinying Sun,运行默认配置后,显示可调整的值范围是[-9, 9]。然后,为了减少嘴部开合度,我们将值设为-7

python -m scripts.inference --inference_config configs/inference/test.yaml --bbox_shift -7 

:pushpin: 更多技术细节可以在bbox_shift中找到。

结合MuseV和MuseTalk

作为虚拟人生成的完整解决方案,建议您首先参考这里应用MuseV生成视频(文本到视频、图像到视频或姿势到视频)。建议进行帧插值以提高帧率。然后,您可以参考这里使用MuseTalk生成唇形同步视频。

:new: 实时推理

这里,我们提供了推理脚本。该脚本首先预先应用必要的预处理,如人脸检测、人脸解析和VAE编码。在推理过程中,只涉及UNet和VAE解码器,这使得MuseTalk可以实时运行。

python -m scripts.realtime_inference --inference_config configs/inference/realtime.yaml --batch_size 4

configs/inference/realtime.yaml是实时推理配置文件的路径,包括preparationvideo_pathbbox_shiftaudio_clips

  1. realtime.yaml中将preparation设置为True,为新的avatar准备材料。(如果bbox_shift发生变化,您也需要重新准备材料。)
  2. 之后,avatar将使用从audio_clips中选择的音频片段生成视频。
    Inferring using: data/audio/yongen.wav
    
  3. 当MuseTalk正在推理时,子线程可以同时将结果流式传输给用户。在NVIDIA Tesla V100上,生成过程可以达到30fps以上。
  4. 如果您想使用相同的avatar生成更多视频,请将preparation设置为False并运行此脚本。
实时推理注意事项
  1. 如果您想使用相同的avatar/视频生成多个视频,您也可以使用此脚本来显著加快生成过程。
  2. 在先前的脚本中,生成时间也受到I/O(如保存图像)的限制。如果您只想测试生成速度而不保存图像,可以运行
python -m scripts.realtime_inference --inference_config configs/inference/realtime.yaml --skip_save_images

致谢

  1. 我们感谢开源组件如whisperdwposeface-alignmentface-parsingS3FD
  2. MuseTalk参考了diffusersisaacOnline/whisper的许多内容。
  3. MuseTalk基于HDTF数据集构建。

感谢开源!

局限性

  • 分辨率:尽管MuseTalk使用256 x 256的面部区域大小,比其他开源方法更好,但尚未达到理论分辨率上限。我们将继续解决这个问题。 如果您需要更高的分辨率,可以结合使用超分辨率模型,如GFPGAN

  • 身份保持:原始面部的一些细节未能很好地保留,如胡须、嘴唇形状和颜色。

  • 抖动:由于当前管道采用单帧生成,存在一些抖动。

引用

@article{musetalk, title={MuseTalk: Real-Time High Quality Lip Synchorization with Latent Space Inpainting}, author={Zhang, Yue and Liu, Minhao and Chen, Zhaokang and Wu, Bin and He, Yingjie and Zhan, Chao and Zhou, Wenjiang}, journal={arxiv}, year={2024} }

免责声明/许可

  1. 代码:MuseTalk的代码根据MIT许可发布。对学术和商业用途均无限制。
  2. 模型:训练好的模型可用于任何目的,包括商业用途。
  3. 其他开源模型:使用的其他开源模型必须遵守其许可,如whisperft-mse-vaedwposeS3FD等。
  4. 测试数据从互联网收集,仅供非商业研究目的使用。
  5. AIGC:本项目致力于积极影响AI驱动的视频生成领域。用户可以自由使用此工具创建视频,但应遵守当地法律并负责任地使用。开发者不对用户可能的滥用承担任何责任。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多