Wav2Lip 是一项先进的人工智能项目,旨在实现视频中的语音到唇部动作的自然同步。该项目主要解决了视频通信和多媒体应用中唇部运动与音频不同步的问题。它利用深度学习技术,通过分析音频信号来生成逼真的唇部动画,从而提高视频内容的真实感和沉浸感。该项目适用于多种场景,包括视频通话、电影制作中的口型同步,以及任何需要改善视听同步的应用。这一创新技术不仅提升了视觉效果的自然性,也为数字媒体领域带来了新的可能性。
您可以将任何视频与任何音频进行口型同步:
python inference.py --checkpoint_path <ckpt> --face <video.mp4> --audio <an-audio-source>
结果默认保存在results/result_voice.mp4. 您可以将其指定为参数,类似于其他几个可用选项。音频源可以是FFMPEG包含音频数据支持的任何文件:.wav,.mp3甚至是视频文件,代码将自动从中提取音频。
data_root (mvlrs_v1) ├── main, pretrain (we use only main folder in this work) | ├── list of folders | │ ├── five-digit numbered video IDs ending with (.mp4)
将 LRS2 文件列表(train、val、test).txt文件放入该filelists/文件夹中。
python preprocess.py --data_root data_root/main --preprocessed_root lrs2_preprocessed/
还可以设置其他选项,例如batch_size并行使用的 GPU 数量。
preprocessed_root (lrs2_preprocessed) ├── list of folders | ├── Folders with five-digit numbered video IDs | │ ├── *.jpg | │ ├── audio.wav
对其他数据集的训练可能需要修改代码。在提出问题之前,请先阅读以下内容:
当提出有关此主题的问题时,请告诉我们您已了解所有这些要点。
我们有一个在允许商业用途的数据集上训练的高清模型。在我们的新模型中,生成的面部尺寸将为 192 x 288。