同步技术驱动的高质量说话头像合成
SyncTalk项目通过三平面哈希表示法实现 高度同步的说话头像视频合成。该技术生成同步的唇部运动、面部表情和稳定的头部姿势,同时还原发型细节,创造高分辨率视频。在保持人物身份的同时,项目显著提升了说话头像的自然度和真实感。
这是论文 SyncTalk: 会说话的头像合成中的同步魔鬼 的官方代码仓库
<p align='center'> <b> <a href="https://arxiv.org/abs/2311.17590">论文</a> | <a href="https://ziqiaopeng.github.io/synctalk/">项目主页</a> | <a href="https://github.com/ZiqiaoPeng/SyncTalk">代码</a> </b> </p>短视频演示可以在这里找到。
<p align='center'> <img src='https://yellow-cdn.veclightyear.com/835a84d5/76fc8dfd-72cc-4a16-ba4f-338675593ed4.png' width='1000'/> </p>提出的 SyncTalk 合成同步的会说话的头像视频,采用三平面哈希表示来保持主体身份。它可以生成同步的唇部动作、面部表情和稳定的头部姿势,并恢复头发细节以创建高分辨率视频。
感谢 okgpt,我们推出了 Windows 集成包,你可以下载 SyncTalk-Windows.zip
并解压,双击 inference.bat
运行演示。
下载链接:Hugging Face || 百度网盘
在 Ubuntu 18.04、Pytorch 1.12.1 和 CUDA 11.3 上测试通过。
git clone https://github.com/ZiqiaoPeng/SyncTalk.git cd SyncTalk
conda create -n synctalk python==3.8.8 conda activate synctalk pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113 sudo apt-get install portaudio19-dev pip install -r requirements.txt pip install --no-index --no-cache-dir pytorch3d -f https://dl.fbaipublicfiles.com/pytorch3d/packaging/wheels/py38_cu113_pyt1121/download.html pip install tensorflow-gpu==2.8.1 pip install ./freqencoder pip install ./shencoder pip install ./gridencoder pip install ./raymarching
如果安装 PyTorch3D 遇到问题,可以使用以下命令安装:
python ./scripts/install_pytorch3d.py
请将 May.zip 放在 data 文件夹中,将 trial_may.zip 放在 model 文件夹中,然后解压它们。
准备人脸解析模型。
wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_parsing/79999_iter.pth?raw=true -O data_utils/face_parsing/79999_iter.pth
准备用于头部姿势估计的 3DMM 模型。
wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/exp_info.npy?raw=true -O data_utils/face_tracking/3DMM/exp_info.npy wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/keys_info.npy?raw=true -O data_utils/face_tracking/3DMM/keys_info.npy wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/sub_mesh.obj?raw=true -O data_utils/face_tracking/3DMM/sub_mesh.obj wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/topology_info.npy?raw=true -O data_utils/face_tracking/3DMM/topology_info.npy
从 Basel Face Model 2009 下载 3DMM 模型:
# 1. 复制 01_MorphableModel.mat 到 data_util/face_tracking/3DMM/
# 2.
cd data_utils/face_tracking
python convert_BFM.py
将你的视频放在 data/<ID>/<ID>.mp4
下,然后运行以下命令处理视频。
[注意] 视频必须是 25FPS,所有帧都包含说话的人。分辨率应该约为 512x512,时长约 4-5 分钟。
python data_utils/process.py data/<ID>/<ID>.mp4 --asr ave
你可以选择使用 AVE、DeepSpeech 或 Hubert。处理后的视频将保存在 data 文件夹中。
[可选] 获取眨眼的 AU45
在 OpenFace 中运行 FeatureExtraction
,重命名并移动输出的 CSV 文件到 data/<ID>/au.csv
。
[注意] 由于 EmoTalk 的形状捕捉未开源,这里的预处理代码被替换为 mediapipe 的形状捕捉。但根据一些反馈,它效果不佳,你可以选择用 AU45 替换。如果你想与 SyncTalk 进行比较,可以在这里获取一些使用 EmoTalk 捕捉的结果,以及 GeneFace 的视频。
python main.py data/May --workspace model/trial_may -O --test --asr_model ave python main.py data/May --workspace model/trial_may -O --test --asr_model ave --portrait
"ave" 指的是我们的音视频编码器,"portrait" 表示将生成的人脸贴回原图,代表更高的质量。
如果运行正确,你将得到以下结果。
设置 | PSNR | LPIPS | LMD |
---|---|---|---|
SyncTalk (不带 Portrait) | 32.201 | 0.0394 | 2.822 |
SyncTalk (带 Portrait) | 37.644 | 0.0117 | 2.825 |
这是针对单个主体的结果;论文报告了多个主体的平均结果。
python main.py data/May --workspace model/trial_may -O --test --test_train --asr_model ave --portrait --aud ./demo/test.wav
请使用 ".wav" 扩展名的文件进行推理,推理结果将保存在 "model/trial_may/results/" 中。如果不使用音视频编码器,请将 wav 替换为 npy 文件路径。
DeepSpeech
python data_utils/deepspeech_features/extract_ds_features.py --input data/<name>.wav # 保存到 data/<name>.npy
HuBERT
# 借鉴自GeneFace。英语预训练。 python data_utils/hubert.py --wav data/<name>.wav # 保存到 data/<name>_hu.npy
# 默认情况下,我们是即时从磁盘加载数据。 # 我们也可以预先将所有数据加载到CPU/GPU以加快训练速度,但这对大型数据集来说非常耗内存。 # `--preload 0`: 从磁盘加载(默认, 较慢)。 # `--preload 1`: 加载到CPU(稍慢) # `--preload 2`: 加载到GPU(快速) python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model ave python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model ave # 或者你可以使用脚本进行训练 sh ./scripts/train_may.sh
[提示] 音视频编码器(AVE)适用于唇形同步准确且嘴唇运动幅度大的角色,如May和Shaheen。在推理阶段使用AVE可以实现更准确的唇形同步。如果您的训练结果出现嘴唇抖动,请尝试使用deepspeech或hubert模型作为音频特征编码器。
# 使用deepspeech模型 python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model deepspeech python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model deepspeech # 使用hubert模型 python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model hubert python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model hubert
如果您想使用OpenFace的au45作为眼睛参数,请在命令行中添加"--au45"。
# 使用OpenFace AU45 python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model ave --au45 python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model ave --au45
python main.py data/May --workspace model/trial_may -O --test --asr_model ave --portrait
如果您的角色只训练头部出现双下巴问题,您可以引入躯干训练。通过训练躯干,可以解决这个问题,但是**您将无法使用"--portrait"模式。**如果您添加"--portrait",躯干模型将失效!
# 训练 # <head>.pth 应该是trial_may中最新的检查点 python main.py data/May/ --workspace model/trial_may_torso/ -O --torso --head_ckpt <head>.pth --iters 150000 --asr_model ave # 例如 python main.py data/May/ --workspace model/trial_may_torso/ -O --torso --head_ckpt model/trial_may/ngp_ep0019.pth --iters 150000 --asr_model ave # 测试 python main.py data/May --workspace model/trial_may_torso -O --torso --test --asr_model ave # 不支持 --portrait # 使用目标音频进行推理 python main.py data/May --workspace model/trial_may_torso -O --torso --test --test_train --asr_model ave --aud ./demo/test.wav # 不支持 --portrait
@InProceedings{peng2023synctalk,
title = {SyncTalk: The Devil is in the Synchronization for Talking Head Synthesis},
author = {Ziqiao Peng and Wentao Hu and Yue Shi and Xiangyu Zhu and Xiaomei Zhang and Jun He and Hongyan Liu and Zhaoxin Fan},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2024},
}
本代码的开发主要依赖于ER-NeRF,以及RAD-NeRF、GeneFace、DFRF、DFA-NeRF、AD-NeRF和Deep3DFaceRecon_pytorch。
感谢这些优秀的项目。感谢Tiandishihua帮助我们修复了损失等于NaN的bug。
使用"SyncTalk"的用户同意遵守所有适用的法律和法规,并承认严格禁止滥用软件,包括创建或分发有害内容。软件开发者对因使用或滥用软件而产生的任何直接、间接或后果性损害概不负责。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。