
本地运行的实时AI视频分析开源项目
Mirror是一个 开源项目,通过本地运行的AI模型实时分析网络摄像头视频流。项目完全在本地执行,保障用户隐私,无需联网且免费使用。通过修改提示,Mirror可适应多种场景需求。该项目基于Bakllava模型和llama.cpp,为开发者提供了探索AI视觉分析的平台。
在你的笔记本电脑上实现可定制的AI驱动镜像。

镜像是一个网页应用,它持续监测来自网络摄像头的实时视频流,并做出回应评论。
观看镜像运行的视频:
当你启动网页界面时,它会立即开始基于提示"描述图像中的人"来传输AI的响应。
你可以编辑这个字段,让镜像开始传输你想要的任何内容

你可以尝试的一些示例提示:
使用Pinokio尝试一键安装:https://pinokio.computer/item?uri=https://github.com/cocktailpeanut/mirror
确保使用最新版本的Pinokio(0.1.49及以上)

镜像有很多组成部分,所以如果你不使用一键安装程序,可能需要大量工作:
- 协调多个后端(llama.cpp服务器和gradio网页界面服务器)
- 安装先决条件,如cmake、visual studio(Windows)、ffmpeg等。
如果你想手动安装,请转到以下部分。
请注意,本节提到的所有内容基本上就是一键安装程序自动完成的内容,适用于Mac、Windows和Linux。因此,如果你在尝试手动运行镜像时遇到困难,可以尝试一键安装。
git clone https://github.com/cocktailpeanut/mirror
git clone https://github.com/ggerganov/llama.cpp
将以下bakllava模型文件下载到llama.cpp/models文件夹
cd llama.cpp
mkdir build
cd build
cmake ..
cmake --build . --config Release
创建虚拟环境并安 装依赖
python -m venv venv
source venv/bin/activate
pip install -r requirements.txt
安装FFMPEG:https://ffmpeg.org/download.html
首先启动llama.cpp服务器:
cd llama.cpp\build\bin
Release\server.exe -m ..\..\ggml-model-q4_k.gguf --mmproj ..\..\mmproj-model-f16.gguf -ngl 1
cd llama.cpp\build\bin
./server -m ..\..\ggml-model-q4_k.gguf --mmproj ..\..\mmproj-model-f16.gguf -ngl 1
首先激活环境:
source venv/bin/activate
然后运行app.py文件
python app.py


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&