<p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/ed91ec1f-7465-4f1b-ae4a-99d800fe13dc.png"> </p>
https://github.com/harlanhong/ICCV2023-MCNET/assets/19970321/4e8af5f6-b042-4ced-af2c-93c95e1b7009
:triangular_flag_on_post: 更新
我们现在提供 了一个干净版本的MCNet,不需要自定义CUDA扩展。<br>
克隆仓库
git clone https://github.com/harlanhong/ICCV2023-MCNET.git cd ICCV2023-MCNET
安装依赖包
pip install -r requirements.txt ## 安装人脸对齐库 cd face-alignment pip install -r requirements.txt python setup.py install
我们以论文版本为例。更多模型可以在这里找到。
查看 config/vox-256.yaml 获取每个参数的描述。
人脸深度网络的预训练检查点和我们的MCNet检查点可以在以下链接找到: OneDrive。
推理! 要运行演示,下载检查点并运行以下命令:
CUDA_VISIBLE_DEVICES=0 python demo.py --config config/vox-256.yaml --driving_video 驱动视频路径 --source_image 源图像路径 --checkpoint 检查点路径 --relative --adapt_scale --kp_num 15 --generator Unet_Generator_keypoint_aware --result_video 结果视频路径 --mbunit ExpendMemoryUnit --memsize 1
结果将存储在 结果视频路径。驱动视频和源图像在用于我们的方法之前应该被裁剪。要获得一些半自动裁剪建议,可以使用 python crop-video.py --inp some_youtube_video.mp4。它将生成使用ffmpeg进行裁剪的命令。
要在特定数据集上训练模型,请运行:
CUDA_VISIBLE_DEVICES=0 python -m torch.distributed.launch --master_addr="0.0.0.0" --master_port=12347 run.py --config config/vox-256.yaml --name MCNet --batchsize 8 --kp_num 15 --generator Unet_Generator_keypoint_aware --GFM GeneratorFullModel --memsize 1 --kp_distance 10 --feat_consistent 10 --generator_gan 0 --mbunit ExpendMemoryUnit
代码会在日志目录中创建一个文件夹(每次运行都会创建一个新的特定名称的目录)。
检查点将保存到这个文件夹中。
要查看训练过程中的损失值,请查看 log.txt。
默认情况下,批量大小已调整为在 8 个 GeForce RTX 3090 GPU 上运行(约 150 个 epoch 后可获得最佳性能)。您可以在 .yaml 文件中的 train_params 中更改批量大小。
此外,您可以通过运行以下命令来查看训练损失:
tensorboard --logdir log/MCNet/log
如果您在训练过程中由于某些原因终止了进程,可能会出现僵尸进程,您可以使用我们提供的工具来终止它:
python kill_port.py 端口号
将所有视频调整为相同的大小,例如 256x256,视频可以是 '.gif'、'.mp4' 格式或包含图像的文件夹。 我们推荐后者,为每个视频创建一个单独的文件夹,其中包含所有 '.png' 格式的帧。这种格式是无损的,并且具有更好的 I/O 性能。
创建一个 data/dataset_name 文件夹,其中包含 train 和 test 两个子文件夹,将训练视频放在 train 中,测试视频放在 test 中。
创建一个配置文件 config/dataset_name.yaml,在 dataset_params 中指定根目录 root_dir: data/dataset_name。同时在 train_params 中调整 epoch 数量。
我们的 MCNet 实现受到 FOMM 的启发。我们感谢 FOMM 的作者将他们的代码公开。
@inproceedings{hong23implicit,
title={Implicit Identity Representation Conditioned Memory Compensation Network for Talking Head video Generation},
author={Hong, Fa-Ting and Xu, Dan},
booktitle={ICCV},
year={2023}
}
@inproceedings{hong2022depth,
title={Depth-Aware Generative Adversarial Network for Talking Head Video Generation},
author={Hong, Fa-Ting and Zhang, Longhao and Shen, Li and Xu, Dan},
journal={IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
year={2022}
}
@inproceedings{hong2023depth,
title={DaGAN++: Depth-Aware Generative Adversarial Network for Talking Head Video Generation},
author={Hong, Fa-Ting and and Shen, Li and Xu, Dan},
journal={arXiv preprint arXiv:2305.06225},
year={2023}
}
如果您有任何问题或合作需求(研究目的或商业目的),请发邮件至 fhongac@cse.ust.hk。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。


AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。


一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号