WhisperLive 是一个实时转录应用程序,它利用 OpenAI 的 Whisper 模型将语音输入转换为文本输出。无论是通过麦克风输入的实时音频,还是预先录制的音频文件,WhisperLive 都可以轻松实现转录功能。
要使用 WhisperLive,首先需要安装 PyAudio 和 ffmpeg。可以通过以下命令完成安装:
bash scripts/setup.sh
然后,通过以下命令从 pip 安装 WhisperLive:
pip install whisper-live
如需使用 TensorRT 后端,需要根据 TensorRT_whisper 说明文档 进行相关设置。
该项目的服务端支持两种后端:faster_whisper 和 tensorrt。如果使用 tensorrt 后端,请参考 TensorRT_whisper 说明文档。
python3 run_server.py --port 9090 \ --backend faster_whisper
如果需要使用自定义模型:
python3 run_server.py --port 9090 \ --backend faster_whisper \ -fw "/path/to/custom/faster/whisper/model"
# 运行仅支持英语的模型 python3 run_server.py -p 9090 \ -b tensorrt \ -trt /home/TensorRT-LLM/examples/whisper/whisper_small_en # 运行多语言模型 python3 run_server.py -p 9090 \ -b tensorrt \ -trt /home/TensorRT-LLM/examples/whisper/whisper_small \ -m
可以通过设置 OMP_NUM_THREADS 环境变量来控制 OpenMP 使用的线程数量,这对于管理 CPU 资源和保证性能稳定非常有用。默认情况下,OMP_NUM_THREADS 为 1。可以使用参数 --omp_num_threads 来修改:
python3 run_server.py --port 9090 \ --backend faster_whisper \ --omp_num_threads 4
默认情况下,当服务器未指定模型时,每个客户端连接都会实例化一个新的 Whisper 模型。这样可以根据客户端请求的模型大小使用不同的模型大小。不过,这也意味着必须等待模型加载,同时内存使用会增加。
如果不希望此行为,可以设置 --no_single_model 禁用单模型模式。
初始化客户端时需要指定以下参数:
lang: 音频输入语言,仅在使用多语言模型时适用。translate: 设置为 True 时可将任意语言翻译为英语。model: Whisper 模型大小。use_vad: 服务器上是否使用语音活跃检测。save_output_recording: 如果设置为 True,会将麦克风输入保存为 .wav 文件(默认情况下为 False)。output_recording_filename: 若 save_output_recording 为 True,指定保存音频的路径。max_clients: 服务器允许的最大客户端数量,默认为 4。max_connection_time: 每个客户端的最大连接时间,默认为 600 秒。以下是设置客户端的代码示例:
from whisper_live.client import TranscriptionClient client = TranscriptionClient( "localhost", 9090, lang="en", translate=False, model="small", use_vad=False, save_output_recording=True, output_recording_filename="./output_recording.wav", max_clients=4, max_connection_time=600 )
client("tests/jfk.wav")
client()
client(rtsp_url="rtsp://admin:admin@192.168.0.1/rtsp")
client(hls_url="http://exampleurl.com/stream.m3u8")
WhisperLive 提供 Chrome 和 Firefox 浏览器扩展,用户可以直接在浏览器中转录音频。详细的安装和使用说明请参考 Audio-Transcription-Chrome 和 Audio-Transcription-Firefox。
WhisperLive 提供 GPU 和 CPU 的 Docker 运行方式:
GPU 版:
docker run -it --gpus all -p 9090:9090 ghcr.io/collabora/whisperlive-gpu:latest
docker run -p 9090:9090 --runtime=nvidia --gpus all --entrypoint /bin/bash -it ghcr.io/collabora/whisperlive-tensorrt # Build small.en engine bash build_whisper_tensorrt.sh /app/TensorRT-LLM-examples small.en # Run server with small.en python3 run_server.py --port 9090 \ --backend tensorrt \ --trt_model_path "/app/TensorRT-LLM-examples/whisper/whisper_small_en"
CPU 版:
docker run -it -p 9090:9090 ghcr.io/collabora/whisperlive-cpu:latest
备注:默认使用的模型大小为“小”。如果需要构建其他模型大小的 Docker 映像,可以修改 server.py 中的设置然后重新构建 Docker 镜像。
如果需要协助进行开源或专有 AI 项目开发,可以通过 Collabora 网站或以下邮件联系:vineet.suryan@collabora.com 和 marcus.edel@collabora.com。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。


AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。


一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号