
同步技术驱动的高质量说话头像合成
SyncTalk项目通过三平面哈希表示法实现 高度同步的说话头像视频合成。该技术生成同步的唇部运动、面部表情和稳定的头部姿势,同时还原发型细节,创造高分辨率视频。在保持人物身份的同时,项目显著提升了说话头像的自然度和真实感。
这是论文 SyncTalk: 会说话的头像合成中的同步魔鬼 的官方代码仓库
<p align='center'> <b> <a href="https://arxiv.org/abs/2311.17590">论文</a> | <a href="https://ziqiaopeng.github.io/synctalk/">项目主页</a> | <a href="https://github.com/ZiqiaoPeng/SyncTalk">代码</a> </b> </p>短视频演示可以在这里找到。
<p align='center'> <img src='https://yellow-cdn.veclightyear.com/835a84d5/76fc8dfd-72cc-4a16-ba4f-338675593ed4.png' width='1000'/> </p>提出的 SyncTalk 合成同步的会说话的头像视频,采用三平面哈希表示来保持主体身份。它可以生成同步的唇部动作、面部表情和稳定的头部姿势,并恢复头发细节以创建高分辨率视频。
感谢 okgpt,我们推出了 Windows 集成包,你可以下载 SyncTalk-Windows.zip 并解压,双击 inference.bat 运行演示。
下载链接:Hugging Face || 百度网盘
在 Ubuntu 18.04、Pytorch 1.12.1 和 CUDA 11.3 上测试通过。
git clone https://github.com/ZiqiaoPeng/SyncTalk.git cd SyncTalk
conda create -n synctalk python==3.8.8 conda activate synctalk pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113 sudo apt-get install portaudio19-dev pip install -r requirements.txt pip install --no-index --no-cache-dir pytorch3d -f https://dl.fbaipublicfiles.com/pytorch3d/packaging/wheels/py38_cu113_pyt1121/download.html pip install tensorflow-gpu==2.8.1 pip install ./freqencoder pip install ./shencoder pip install ./gridencoder pip install ./raymarching
如果安装 PyTorch3D 遇到问题,可以使用以下命令安装:
python ./scripts/install_pytorch3d.py
请将 May.zip 放在 data 文件夹中,将 trial_may.zip 放在 model 文件夹中,然后解压它们。
准备人脸解析模型。
wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_parsing/79999_iter.pth?raw=true -O data_utils/face_parsing/79999_iter.pth
准备用于头部姿势估计的 3DMM 模型。
wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/exp_info.npy?raw=true -O data_utils/face_tracking/3DMM/exp_info.npy wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/keys_info.npy?raw=true -O data_utils/face_tracking/3DMM/keys_info.npy wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/sub_mesh.obj?raw=true -O data_utils/face_tracking/3DMM/sub_mesh.obj wget https://github.com/YudongGuo/AD-NeRF/blob/master/data_util/face_tracking/3DMM/topology_info.npy?raw=true -O data_utils/face_tracking/3DMM/topology_info.npy
从 Basel Face Model 2009 下载 3DMM 模型:
# 1. 复制 01_MorphableModel.mat 到 data_util/face_tracking/3DMM/
# 2.
cd data_utils/face_tracking
python convert_BFM.py
将你的视频放在 data/<ID>/<ID>.mp4 下,然后运行以下命令处理视频。
[注意] 视频必须是 25FPS,所有帧都包含说话的人。分辨率应该约为 512x512,时长约 4-5 分钟。
python data_utils/process.py data/<ID>/<ID>.mp4 --asr ave
你可以选择使用 AVE、DeepSpeech 或 Hubert。处理后的视频将保存在 data 文件夹中。
[可选] 获取眨眼的 AU45
在 OpenFace 中运行 FeatureExtraction,重命名并移动输出的 CSV 文件到 data/<ID>/au.csv。
[注意] 由于 EmoTalk 的形状捕捉未开源,这里的预处理代码被替换为 mediapipe 的形状捕捉。但根据一些反馈,它效果不佳,你可以选择用 AU45 替换。如果你想与 SyncTalk 进行比较,可以在这里获取一些使用 EmoTalk 捕捉的结果,以及 GeneFace 的视频。
python main.py data/May --workspace model/trial_may -O --test --asr_model ave python main.py data/May --workspace model/trial_may -O --test --asr_model ave --portrait
"ave" 指的是我们的音视频编码器,"portrait" 表示将生成的人脸贴回原图,代表更高的质量。
如果运行正确,你将得到以下结果。
| 设置 | PSNR | LPIPS | LMD |
|---|---|---|---|
| SyncTalk (不带 Portrait) | 32.201 | 0.0394 | 2.822 |
| SyncTalk (带 Portrait) | 37.644 | 0.0117 | 2.825 |
这是针对单个主体的结果;论文报告了多个主体的平均结果。
python main.py data/May --workspace model/trial_may -O --test --test_train --asr_model ave --portrait --aud ./demo/test.wav
请使用 ".wav" 扩展名的文件进行推理,推理结果将保存在 "model/trial_may/results/" 中。如果不使用音视频编码器,请将 wav 替换为 npy 文件路径。
DeepSpeech
python data_utils/deepspeech_features/extract_ds_features.py --input data/<name>.wav # 保存到 data/<name>.npy
HuBERT
# 借鉴自GeneFace。英语预训练。 python data_utils/hubert.py --wav data/<name>.wav # 保存到 data/<name>_hu.npy
# 默认情况下,我们是即时从磁盘加载数据。 # 我们也可以预先将所有数据加载到CPU/GPU以加快训练速度,但这对大型数据集来说非常耗内存。 # `--preload 0`: 从磁盘加载(默认, 较慢)。 # `--preload 1`: 加载到CPU(稍慢) # `--preload 2`: 加载到GPU(快速) python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model ave python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model ave # 或者你可以使用脚本进行训练 sh ./scripts/train_may.sh
[提示] 音视频编码器(AVE)适用于唇形同步准确且嘴唇运动幅度大的角色,如May和Shaheen。在推理阶段使用AVE可以实现更准确的唇形同步。如果您的训练结果出现嘴唇抖动,请尝试使用deepspeech或hubert模型作为音频特征编码器。
# 使用deepspeech模型 python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model deepspeech python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model deepspeech # 使用hubert模型 python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model hubert python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model hubert
如果您想使用OpenFace的au45作为眼睛参数,请在命令行中添加"--au45"。
# 使用OpenFace AU45 python main.py data/May --workspace model/trial_may -O --iters 60000 --asr_model ave --au45 python main.py data/May --workspace model/trial_may -O --iters 100000 --finetune_lips --patch_size 64 --asr_model ave --au45
python main.py data/May --workspace model/trial_may -O --test --asr_model ave --portrait
如果您的角色只训练头部出现双下巴问题,您可以引入躯干训练。通过训练躯干,可以解决这个问题,但是**您将无法使用"--portrait"模式。**如果您添加"--portrait",躯干模型将失效!
# 训练 # <head>.pth 应该是trial_may中最新的检查点 python main.py data/May/ --workspace model/trial_may_torso/ -O --torso --head_ckpt <head>.pth --iters 150000 --asr_model ave # 例如 python main.py data/May/ --workspace model/trial_may_torso/ -O --torso --head_ckpt model/trial_may/ngp_ep0019.pth --iters 150000 --asr_model ave # 测试 python main.py data/May --workspace model/trial_may_torso -O --torso --test --asr_model ave # 不支持 --portrait # 使用目标音频进行推理 python main.py data/May --workspace model/trial_may_torso -O --torso --test --test_train --asr_model ave --aud ./demo/test.wav # 不支持 --portrait
@InProceedings{peng2023synctalk,
title = {SyncTalk: The Devil is in the Synchronization for Talking Head Synthesis},
author = {Ziqiao Peng and Wentao Hu and Yue Shi and Xiangyu Zhu and Xiaomei Zhang and Jun He and Hongyan Liu and Zhaoxin Fan},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2024},
}
本代码的开发主要依赖于ER-NeRF,以及RAD-NeRF、GeneFace、DFRF、DFA-NeRF、AD-NeRF和Deep3DFaceRecon_pytorch。
感谢这些优秀的项目。感谢Tiandishihua帮助我们修复了损失等于NaN的bug。
使用"SyncTalk"的用户同意遵守所有适用的法律和法规,并承认严格禁止滥用软件,包括创建或分发有害内容。软件开发者对因使用或滥用软件而产生的任何直接、间接或后果性损害概不负责。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利 用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工 智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号