WhisperLive 是一个实时转录应用程序,它利用 OpenAI 的 Whisper 模型将语音输入转换为文本输出。无论是通过麦克风输入的实时音频,还是预先录制的音频文件,WhisperLive 都可以轻松实现转录功能。
要使用 WhisperLive,首先需要安装 PyAudio 和 ffmpeg。可以通过以下命令完成安装:
bash scripts/setup.sh
然后,通过以下命令从 pip 安装 WhisperLive:
pip install whisper-live
如需使用 TensorRT 后端,需要根据 TensorRT_whisper 说明文档 进行相关设置。
该项目的服务端支持两种后端:faster_whisper 和 tensorrt。如果使用 tensorrt 后端,请参考 TensorRT_whisper 说明文档。
python3 run_server.py --port 9090 \ --backend faster_whisper
如果需要使用自定义模型:
python3 run_server.py --port 9090 \ --backend faster_whisper \ -fw "/path/to/custom/faster/whisper/model"
# 运行仅支持英语的模型 python3 run_server.py -p 9090 \ -b tensorrt \ -trt /home/TensorRT-LLM/examples/whisper/whisper_small_en # 运行多语言模型 python3 run_server.py -p 9090 \ -b tensorrt \ -trt /home/TensorRT-LLM/examples/whisper/whisper_small \ -m
可以通过设置 OMP_NUM_THREADS 环境变量来控制 OpenMP 使用的线程数量,这对于管理 CPU 资源和保证性能稳定非常有用。默认情况下,OMP_NUM_THREADS 为 1。可以使用参数 --omp_num_threads 来修改:
python3 run_server.py --port 9090 \ --backend faster_whisper \ --omp_num_threads 4
默认情况下,当服务器未指定模型时,每个客户端连接都会实例化一个新的 Whisper 模型。这样可以根据客户端请求的模型大小使用不同的模型大小。不过,这也意味着必须等待模型加载,同时内存使用会增加。
如果不希望此行为,可以设置 --no_single_model 禁用单模型模式。
初始化客户端时需要指定以下参数:
lang: 音频输入语言,仅在使用多语言模型时适用。translate: 设置为 True 时可将任意语言翻译为英语。model: Whisper 模型大小。use_vad: 服务器上是否使用语音活跃检测。save_output_recording: 如果设置为 True,会将麦克风输入保存为 .wav 文件(默认情况下为 False)。output_recording_filename: 若 save_output_recording 为 True,指定保存音频的路径。max_clients: 服务器允许的最大客户端数量,默认为 4。max_connection_time: 每个客户端的最大连接时间,默认为 600 秒。以下是设置客户端的代码示例:
from whisper_live.client import TranscriptionClient client = TranscriptionClient( "localhost", 9090, lang="en", translate=False, model="small", use_vad=False, save_output_recording=True, output_recording_filename="./output_recording.wav", max_clients=4, max_connection_time=600 )
client("tests/jfk.wav")
client()
client(rtsp_url="rtsp://admin:admin@192.168.0.1/rtsp")
client(hls_url="http://exampleurl.com/stream.m3u8")
WhisperLive 提供 Chrome 和 Firefox 浏览器扩展,用户可以直接在浏览器中转录音频。详细的安装和使用说明请参考 Audio-Transcription-Chrome 和 Audio-Transcription-Firefox。
WhisperLive 提供 GPU 和 CPU 的 Docker 运行方式:
GPU 版:
docker run -it --gpus all -p 9090:9090 ghcr.io/collabora/whisperlive-gpu:latest
docker run -p 9090:9090 --runtime=nvidia --gpus all --entrypoint /bin/bash -it ghcr.io/collabora/whisperlive-tensorrt # Build small.en engine bash build_whisper_tensorrt.sh /app/TensorRT-LLM-examples small.en # Run server with small.en python3 run_server.py --port 9090 \ --backend tensorrt \ --trt_model_path "/app/TensorRT-LLM-examples/whisper/whisper_small_en"
CPU 版:
docker run -it -p 9090:9090 ghcr.io/collabora/whisperlive-cpu:latest
备注:默认使用的模型大小为“小”。如果需要构建其他模型大小的 Docker 映像,可以修改 server.py 中的设置然后重新构建 Docker 镜像。
如果需要协助进行开源或专有 AI 项目开发,可以通过 Collabora 网站或以下邮件联系:vineet.suryan@collabora.com 和 marcus.edel@collabora.com。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无 需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号