espnet_onnx

espnet_onnx

轻量级语音识别和合成库 基于ONNX格式优化

espnet_onnx是一个将ESPnet模型导出为ONNX格式的实用库,支持语音识别和语音合成任务。该库提供简洁的API接口,便于模型导出和推理。通过ONNX Runtime实现高效的CPU和GPU计算,并支持流式语音识别。用户可从预训练或自定义模型中轻松导出,并进行优化和量化以提升性能。无需PyTorch依赖,适合轻量级部署。

espnet_onnxONNX语音识别语音合成模型导出Github开源项目

espnet_onnx

无需PyTorch的ESPnet!

一个用于轻松导出、量化和优化espnet模型到onnx格式的实用程序库。 如果你已经有了导出的文件,就无需在你的机器上安装PyTorch或ESPnet!

Colab上的espnet_onnx演示

现在可以在Google Colab上使用演示笔记本了!

  • 简单的ASR演示: 在Colab中打开
  • 简单的TTS演示: 在Colab中打开

安装

  1. 可以使用pip安装espnet_onnx
pip install espnet_onnx
  1. 如果你想导出预训练模型,还需要额外安装torch>=1.11.0espnetespnet_model_zooonnxonnx==1.12.0可能会导致一些错误。如果你在推理或导出时遇到错误,请考虑降级onnx版本。

开发者安装指南

  1. 克隆此仓库。
git clone git@github.com:espnet/espnet_onnx.git
  1. 创建虚拟环境。
cd tools make venv export
  1. 激活虚拟环境并根据需要安装torch。
. tools/venv/bin/activate # 请参考PyTorch的官方安装指南。 pip install torch
  1. 克隆s3prl仓库并用pip安装。
cd tools git clone https://github.com/s3prl/s3prl cd s3prl pip install .
  1. 为开发transducer模型安装warp_transducer。
cd tools git clone --single-branch --branch espnet_v1.1 https://github.com/b-flo/warp-transducer.git cd warp-transducer mkdir build # 请将WITH_OMP设置为ON或OFF。 cd build && cmake -DWITH_OMP="ON" .. && make cd pytorch_binding && python3 -m pip install -e .
  1. 如果你想开发优化,还需要开发onnxruntime。请克隆onnxruntime仓库。

  2. 由于espnet==202308(v0.2.0发布时的最新版本)要求protobuf<=3.20.1,而最新的onnx要求protobuf>=3.20.2,你可能会在安装时遇到错误。 在这种情况下,首先安装espnet==202308,将protobuf更新到3.20.3,然后安装其他库。

用法

导出模型

  1. espnet_onnx可以导出espnet_model_zoo上发布的预训练模型。默认情况下,导出的文件将存储在${HOME}/.cache/espnet_onnx/<tag_name>中。
from espnet2.bin.asr_inference import Speech2Text from espnet_onnx.export import ASRModelExport m = ASRModelExport() # 从espnet_model_zoo下载并从预训练模型导出 m.export_from_pretrained('<tag name>', quantize=True) # 从训练好的模型导出 speech2text = Speech2Text(args) m.export(speech2text, '<tag name>', quantize=True)
  1. 你可以从zip文件导出预训练模型。zip文件应包含meta.yaml
from espnet_onnx.export import ASRModelExport m = ASRModelExport() m.export_from_zip( 'path/to/the/zipfile', tag_name='tag_name_for_zipped_model', quantize=True )
  1. 你可以为导出设置一些配置。每个模型的可用配置在详细说明中显示。
from espnet_onnx.export import ASRModelExport m = ASRModelExport() # 将最大序列长度设置为3000 m.set_export_config(max_seq_len=3000) m.export_from_zip( 'path/to/the/zipfile', tag_name='tag_name_for_zipped_model', )
  1. 你可以使用optimize选项轻松优化你的模型。如果你想充分优化你的模型,你需要从这里安装onnxruntime的自定义版本。更多详情请阅读这个文档
from espnet_onnx.export import ASRModelExport m = ASRModelExport() m.export_from_zip( 'path/to/the/zipfile', tag_name='tag_name_for_zipped_model', optimize=True, quantize=True )
  1. 你可以从命令行导出模型。
python -m espnet_onnx.export \ --model_type asr \ --input ${path_to_zip} \ --tag transformer_lm \ --apply_optimize \ --apply_quantize

推理

  1. 对于推理,使用tag_namemodel_dir来加载onnx文件。tag_name必须在tag_config.yaml中定义。
import librosa from espnet_onnx import Speech2Text speech2text = Speech2Text(tag_name='<tag name>') # speech2text = Speech2Text(model_dir='path to the onnx directory') y, sr = librosa.load('sample.wav', sr=16000) nbest = speech2text(y)
  1. 对于流式ASR,你可以使用StreamingSpeech2Text类。语音长度应与StreamingSpeech2Text.hop_size相同。
from espnet_onnx import StreamingSpeech2Text stream_asr = StreamingSpeech2Text(tag_name) # 开始流式ASR stream_asr.start() while streaming: wav = <some code to get wav> assert len(wav) == stream_asr.hop_size stream_text = stream_asr(wav)[0][0] # 你可以用end函数获取非流式ASR结果 nbest = stream_asr.end()

你也可以用simulate函数模拟你的wav文件的流式模型。将True作为第二个参数传递将显示如下代码的流式文本。

import librosa from espnet_onnx import StreamingSpeech2Text stream_asr = StreamingSpeech2Text(tag_name) y, sr = librosa.load('path/to/wav', sr=16000) nbest = stream_asr.simulate(y, True) # 使用6个进程处理音频。 # 位置0的结果: # 位置1的结果: # 位置2的结果:this # 位置3的结果:this is # 位置4的结果:this is a # 位置5的结果:this is a print(nbest[0][0]) # 'this is a pen'
  1. 如果您安装了自定义版本的onnxruntime,您可以运行优化模型进行推理。您无需更改上述任何代码。如果模型已优化,espnet_onnx会自动加载优化版本。

  2. 您可以仅使用hubert模型作为前端。

from espnet_onnx.export import ASRModelExport # 导出模型 tag_name = 'ESPnet预训练模型与hubert' m = ASRModelExport() m.export_from_pretrained(tag_name, optimize=True) # 仅加载前端模型 from espnet_onnx.asr.frontend import Frontend frontend = Frontend.get_frontend(tag_name) # 在应用中使用模型 import librosa y, sr = librosa.load('wav文件') # y: (B, T) # y_len: (B,) feats = frontend(y[None,:], np.array([len(y)]))
  1. 如果您在环境中安装了torch,可以在训练中使用前端。
from espnet_onnx.asr.frontend import TorchFrontend frontend = TorchFrontend.get_frontend(tag_name) # 加载预训练前端模型 # 在训练时使用模型 import librosa y, sr = librosa.load('wav文件') # 需要将数据放在GPU上, # 并以元组形式指定输出形状 y = torch.Tensor(y).unsqueeze(0).to('cuda') # (1, wav_length) output_shape = (batch_size, feat_length, feats_dims) feats = frontend(y, y.size(1), output_shape)

文本到语音推理

  1. 您可以像导出ASR模型一样导出TTS模型。
from espnet2.bin.tts_inference import Text2Speech from espnet_onnx.export import TTSModelExport m = TTSModelExport() # 从espnet_model_zoo下载并从预训练模型导出 m.export_from_pretrained('<tag name>', quantize=True) # 从训练好的模型导出 text2speech = Text2Speech(args) m.export(text2speech, '<tag name>', quantize=True)
  1. 您可以简单地使用Text2Speech类生成wav文件。
from espnet_onnx import Text2Speech tag_name = 'kan-bayashi/ljspeech_vits' text2speech = Text2Speech(tag_name, use_quantized=True) text = 'Hello world!' output_dict = text2speech(text) # 使用onnx模型进行推理。 wav = output_dict['wav']

如何在espnet_onnx上使用GPU

安装依赖。

首先,我们需要onnxruntime-gpu库,而不是onnxruntime。请按照这篇文章选择并安装正确版本的onnxruntime-gpu,具体取决于您的CUDA版本。

在GPU上进行推理

现在您可以使用GPU加速推理速度。您只需选择正确的提供程序,并将其提供给Speech2TextStreamingSpeech2Text实例。有关提供程序的更多信息,请参阅这篇文章

import librosa from espnet_onnx import Speech2Text PROVIDERS = ['CUDAExecutionProvider'] tag_name = 'some_tag_name' speech2text = Speech2Text( tag_name, providers=PROVIDERS ) y, sr = librosa.load('path/to/wav', sr=16000) nbest = speech2text(y) # 在GPU上运行。

请注意,某些量化模型不支持GPU计算。如果使用量化模型出现错误,请尝试使用非量化模型。

与ESPNet的变更

为避免缓存问题,我修改了原始espnet实现中的一些脚本。

  1. <sos>之前添加<blank>

  2. 向模型提供一些torch.zeros()数组。

  3. 在后处理中移除第一个标记。(移除blank

  4. make_pad_mask替换为新的实现,可转换为onnx格式。

  5. 从位置编码模块中移除extend_pe()pe的默认长度为512。

支持的架构

ASR:ASR支持的架构

TTS:TTS支持的架构

开发者指南

ASR:开发者指南

参考文献

版权

版权所有 (c) 2022 Maso Someki

根据MIT许可证发布

作者

Masao Someki

联系方式:masao.someki@gmail.com

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多