Python绑定实现高效语音识别
whispercpp是一个基于Pybind11的whisper.cpp Python绑定库,为开发者提供高效的语音识别功能。该库支持快速加载预训练模型、转录音频文件,并具有实验性的流式转录功能。whispercpp提供简洁的API接口,方便快速集成whisper.cpp的功能。它还遵循XDG Base Directory规范,确保合理的文件管理。这个项目为Python开发者提供了便捷的方式来使用whisper.cpp的强大语音识别能力。
whisper.cpp的Pybind11绑定
通过pip安装:
pip install whispercpp
注意:对于没有预构建轮子的平台,我们将设置一个封闭的工具链(这意味着你不需要设置任何东西来安装Python包),这将需要更长的安装时间。向
pip
传递-vv
参数以查看进度。
要使用最新版本,请从源代码安装:
pip install git+https://github.com/aarnphm/whispercpp.git -vv
对于本地设置,初始化所有子模块:
git submodule update --init --recursive
构建轮子:
# 选项1:使用pypa/build python3 -m build -w # 选项2:使用bazel ./tools/bazel build //:whispercpp_wheel
安装轮子:
# 选项1:通过pypa/build pip install dist/*.whl # 选项2:使用bazel pip install $(./tools/bazel info bazel-bin)/*.whl
该绑定提供了一个Whisper
类:
from whispercpp import Whisper w = Whisper.from_pretrained("tiny.en")
目前,推理API通过transcribe
提供:
w.transcribe(np.ones((1, 16000)))
你可以使用任何你喜欢的音频库(ffmpeg或librosa,或whispercpp.api.load_wav_file
)将音频文件加载到Numpy数组中,然后将其传递给transcribe
:
import ffmpeg import numpy as np try: y, _ = ( ffmpeg.input("/path/to/audio.wav", threads=0) .output("-", format="s16le", acodec="pcm_s16le", ac=1, ar=sample_rate) .run( cmd=["ffmpeg", "-nostdin"], capture_stdout=True, capture_stderr=True ) ) except ffmpeg.Error as e: raise RuntimeError(f"Failed to load audio: {e.stderr.decode()}") from e arr = np.frombuffer(y, np.int16).flatten().astype(np.float32) / 32768.0 w.transcribe(arr)
你也可以使用模型的transcribe_from_file
方 法以方便使用:
w.transcribe_from_file("/path/to/audio.wav")
Pybind11绑定支持whisper.cpp的所有功能,灵感来自whisper-rs
该绑定也可以通过api
使用:
from whispercpp import api # 直接从whisper.cpp绑定
Whisper
Whisper.from_pretrained(model_name: str) -> Whisper
从本地缓存加载预训练模型,如果需要则下载并缓存。支持从作为model_name
传递的本地路径加载自定义ggml模型。
w = Whisper.from_pretrained("tiny.en") w = Whisper.from_pretrained("/path/to/model.bin")
模型将保存在$XDG_DATA_HOME/whispercpp
或~/.local/share/whispercpp
(如果未设置环境变量)。
Whisper.transcribe(arr: NDArray[np.float32], num_proc: int = 1)
对给定的Numpy数组进行转录。这调用了whisper.cpp
中的full
。如果num_proc
大于1,则会使用full_parallel
。
w.transcribe(np.ones((1, 16000)))
要从WAV文件转录,请使用transcribe_from_file
:
w.transcribe_from_file("/path/to/audio.wav")
Whisper.stream_transcribe(*, length_ms: int=..., device_id: int=..., num_proc: int=...) -> Iterator[str]
[实验性功能] 流式转录。这调用了whisper.cpp
中的stream_
。转录结果将在可用时立即产生。有关示例,请参见stream.py。
注意:
device_id
是音频设备的索引。你可以使用whispercpp.api.available_audio_devices
获取可用音频设备列表。
api
api
是whisper.cpp
的直接绑定,具有与whisper-rs
类似的API。
api.Context
这个类是whisper_context
的包装器
from whispercpp import api ctx = api.Context.from_file("/path/to/saved_weight.bin")
注意:也可以通过
Whisper
类的w.context
访问上下文
api.Params
这个类是whisper_params
的包装器
from whispercpp import api params = api.Params()
注意:也可以通过
Whisper
类的w.params
访问参数
whispercpp.py。这里有几个关键区别:
whispercpp
达到了相同的目标。区别在于whispercpp
使用Pybind11而不是Cython。如果你更喜欢Cython而不是Pybind11,可以随意使用它。请注意,whispercpp.py
和whispercpp
是互斥的,因为它们也使用whispercpp
命名空间。whispercpp
提供了类似于whisper-rs
的API,这提供了更好的用户体验。实际上只有两个API(from_pretrained
和transcribe
)可以在Python中快速使用whisper.cpp。whispercpp
不会污染你的$HOME
目录,而是遵循XDG基本目录规范来保存权重。使用cdll
和ctypes
并完成它?
有关更多信息,请参见examples
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客 生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。