该库实现了本论文中描述的端到端面部合成模型。
该库由Konstantinos Vougioukas、Honglie Chen和Pingchuan Ma维护。

模型原本托管在git LFS上。然而需求量太大,导致我达到了免费gitLFS存储的配额。我已将模型移至Google Drive。可以在这里找到模型。
将模型文件放在*sda/data/*目录下。
要安装该库,请执行:
$ pip install .
要创建动画,你需要实例化VideoAnimator类。然后提供一张图片和音频剪辑(或文件路径),就会生成一段视频。
该模型已在GRID、TCD-TIMIT、CREMA-D和LRW数据集上训练。默认模型是GRID。要加载其他预训练模型,只需使用以下参数实例化VideoAnimator:
import sda
va = sda.VideoAnimator(gpu=0, model_path="crema") # 实例化动画器
目前上传的模型有:
import sda
va = sda.VideoAnimator(gpu=0) # 实例化动画器
vid, aud = va("example/image.bmp", "example/audio.wav")
import sda
import scipy.io.wavfile as wav
from PIL import Image
va = sda.VideoAnimator(gpu=0) # 实例化动画器
fs, audio_clip = wav.read("example/audio.wav")
still_frame = Image.open("example/image.bmp")
vid, aud = va(frame, audio_clip, fs=fs)
va.save_video(vid, aud, "generated.mp4")
提供了音频和视频的编码器,以便可以用于生成分类任务的特征。
提供了音频编码器(由音频帧编码器和RNN组成),以及包含音频帧编码器所需的特征长度(以秒为单位)和音频帧之间重叠等信息的字典。
import sda
encoder, info = sda.get_audio_feature_extractor(gpu=0)
如果您在研究中发现此代码有用,请考虑引用以下论文:
@inproceedings{vougioukas2019end, title={End-to-End Speech-Driven Realistic Facial Animation with Temporal GANs.}, author={Vougioukas, Konstantinos and Petridis, Stavros and Pantic, Maja}, booktitle={CVPR Workshops}, pages={37--40}, year={2019} }


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

