把买皮的钱拿去买张3080吧!
本项目fork自 https://github.com/GunwooHan/EasyVtuber 为解决面部捕捉质量问题,又反向移植了原版demo https://github.com/pkhungurn/talking-head-anime-2-demo 中关于ifacialmocap的iOS面部捕捉逻辑 并且省略了ifacialmocap PC端,通过UDP直连方式使iOS面部捕捉刷新率达到最高60fps,解决了面部捕捉刷新率的瓶颈 最后,为EasyVtuber中使用的OBS虚拟摄像头方案增加配套的Shader支持,解锁RGBA输出能力,无需绿幕背景即可直接使用
bin文件夹内是基于Python 3.10.5的Win64嵌入式版构建的轻量化运行环境 对于只想体验这个库的用户,推荐使用这种安装方式。
点击Download ZIP
下载并解压,或使用git克隆该仓库到你能找到的位置。
完整展开venv需要约5.5G硬盘空间。
使用00B快捷方式 或以下链接下载模型文件
https://github.com/pkhungurn/talking-head-anime-3-demo#download-the-models
从原仓库下载(this Dropbox link)的压缩文件
解压到data/models
文件夹中,与placeholder.txt
同级
正确的目录结构为:
+ models
- separable_float
- separable_half
- standard_float
- standard_half
- placeholder.txt
如不确定是否解压到正确位置,可使用00.检查并补齐必需文件.bat
运行适合你所在地区的01A.构建运行环境(默认源).bat
或01B.构建运行环境(国内源).bat
此脚本会使用pip在bin目录下安装所有必要的依赖
两个脚本可互相替代,且支持从中断处继续
如遇网络相关错误,直接关闭控制台,调整网络后重新运行即可
完全安装完成后再次运行脚本的输出如图所示。通常情况下,安装过程中没有红字就表示成功完成。
运行02B启动器(调试输出).bat
直接点击界面底部的Save & Launch
如果看到弹出的OpenCV输出窗口,则安装成功完成
成功进行调试输出后,请参考后续的输入输出设备部分进行进一步配置以输出到OBS。
如果你仍需使用之前的Venv方案,请参考以下步骤
点击Download ZIP
下载并解压,或使用git克隆该仓库到你能找到的位置。
完整展开venv需 要约5.5G硬盘空间。
此处假设你已正确安装Python,如不会安装请使用前文的嵌入式方案
在项目目录下运行python -m venv venv
创建虚拟环境
之后的操作都需在虚拟环境中进行,辨别方式为命令行前会有(venv)
标识
在控制台运行venv\Scripts\activate.bat
切换到刚创建的虚拟环境
之后你的python、pip等操作都将在虚拟环境中执行
在虚拟环境中执行以下命令
pip install -r .\requirements.txt
pip install torch --extra-index-url https://download.pytorch.org/whl/cu113
在虚拟环境中执行以下命令
python launcher.py
克隆完成后,如直接用PyCharm打开,暂不要配置Python解释器。
本项目使用Anaconda进行包管理
首先前往 https://www.anaconda.com/ 安装Anaconda
启动Anaconda Prompt控制台
国内用户建议此时切换到清华源(pip和conda都要更换,尤其是conda的PyTorch Channel,PyTorch本体太大了)
然后运行 conda env create -f env_conda.yaml
一键安装所有依赖
如遇报错(通常是网络问题),删除配置了一半的环境,运行conda clean --all
清除下载缓存,调整配置后重试
安装完成后,在PyCharm中打开本项目,点击右下角解释器菜单,选择Add Interpreter...
->Conda Environment
->Existing environment
选择你电脑上的conda.exe
和刚创建的talking-head-anime-2-demo
环境中的python.exe
点击OK,依赖全部亮起即可
https://github.com/pkhungurn/talking-head-anime-3-demo#download-the-models
从原仓库下载(this Dropbox link)的压缩文件
解压到data/models
文件夹中,与placeholder.txt
同级
正确的目录结构为:
+ models
- separable_float
- separable_half
- standard_float
- standard_half
- placeholder.txt
在Conda环境中执行以下命令
python launcher.py
目前更推荐这个方案,UnityCapture存在未查明的性能瓶颈
如果你选择自己进行抠像,你可以直接输出到OBS。如果你需要RGBA支持,则需要额外使用一个着色器。
下载并安装StreamFX https://github.com/Xaymar/obs-StreamFX 下载着色器(感谢树根的协助)https://github.com/shugen002/shader/blob/master/merge%20alpha2.hlsl
之后,使用--alpha_split
参数运行
你会看到这样的输出画面,透明通道单独使用灰度方式发送了
然后对OBS中的视频采集设备添加滤镜-着色器-选择你下载的merge alpha2.hlsl
-关闭
这样透明通道就应用回左边的图像了
你可能需要手动调整一下裁剪把右侧的无用画面切掉
(如果看不到着色器滤镜,那可能是StreamFX没安装好或者OBS不是最新版)
如果需要使用透明通道输出,参考 https://github.com/schellingb/UnityCapture#installation 安装好UnityCapture 只需要正常完成Install.bat的安装,在OBS里能看到对应的设备(Unity Video Capture)就行
在OBS添加完摄像 头后,还需要手动配置一次摄像头属性才能支持ARGB
右键属性-取消激活-分辨率类型自定义-分辨率512x512(与--output_size
参数一致)-视频格式ARGB-激活
https://www.ifacialmocap.com/download/ 你很可能需要购买正式版(非广告,只是试用版时长不太够) 购买前请确认自己的设备是否支持 不需要下载PC软件,只需安装iOS端的软件即可,连接信息通过参数传入Python
https://github.com/emilianavt/OpenSeeFace/releases
直接下载最新版本的Release包并解压
然后进入解压目录的Binary文件夹
右键编辑run.bat
,在倒数第二行运行facetracker的命令后加上--model 4
,切换到模型4可以实现眨眼
facetracker -c %cameraNum% -F %fps% -D %dcaps% -v 3 -P 1 --discard-after 0 --scan-every 0 --no-3d-adapt 1 --max-feature-updates 900 --model 4
(仅供参考)
然后保存并双击run.bat
运行,按照提示选择摄像头、分辨率、帧率,如果捕获正常,你应该能看到输出画面
最后在启动器中选择OpenSeeFace输入,或添加启动参数--osf 127.0.0.1:11573
即可接入OpenSeeFace
完整的运行命令python main.py --output_webcam unitycapture --ifm 192.168.31.182:49983 --character test1L2 --extend_movement 1 --output_size 512x512
参数名 | 值类型 | 说明 |
---|---|---|
--character | 字符串 | character 目录下的输入图像文件名,不需要带扩展名 |
--debug | 无 | 打开OpenCV预览窗口输出渲染结果,如果没有任何输出配置,该参数默认生效 |
--input | 字符串 | 不使用iOS面捕时,传入要使用的摄像头设备名称,默认为设备0,有ifm参数时无效 |
--ifm | 字符串 | 使用iOS面捕时,传入设备的IP:端口号 ,如192.168.31.182:49983 |
--output_webcam | 字符串 | 可用值为obs 或unitycapture ,选择对应的输出种类,不传则不输出到摄像头 |
--extend_movement | 浮点数 | 使用iOS面捕返回的头部位置,对模型输出图像进一步进行移动和旋转,使得上半身可动<br>传入的数值表示移动倍率(建议值为1) |
--output_size | 字符串 | 格式为256x256 ,必须是4的倍数。<br>增大它并不会让图像更清晰,但配合extend_movement会增大可动范围 |
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于 销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号