espnet_onnx

espnet_onnx

轻量级语音识别和合成库 基于ONNX格式优化

espnet_onnx是一个将ESPnet模型导出为ONNX格式的实用库,支持语音识别和语音合成任务。该库提供简洁的API接口,便于模型导出和推理。通过ONNX Runtime实现高效的CPU和GPU计算,并支持流式语音识别。用户可从预训练或自定义模型中轻松导出,并进行优化和量化以提升性能。无需PyTorch依赖,适合轻量级部署。

espnet_onnxONNX语音识别语音合成模型导出Github开源项目

espnet_onnx

无需PyTorch的ESPnet!

一个用于轻松导出、量化和优化espnet模型到onnx格式的实用程序库。 如果你已经有了导出的文件,就无需在你的机器上安装PyTorch或ESPnet!

Colab上的espnet_onnx演示

现在可以在Google Colab上使用演示笔记本了!

  • 简单的ASR演示: 在Colab中打开
  • 简单的TTS演示: 在Colab中打开

安装

  1. 可以使用pip安装espnet_onnx
pip install espnet_onnx
  1. 如果你想导出预训练模型,还需要额外安装torch>=1.11.0espnetespnet_model_zooonnxonnx==1.12.0可能会导致一些错误。如果你在推理或导出时遇到错误,请考虑降级onnx版本。

开发者安装指南

  1. 克隆此仓库。
git clone git@github.com:espnet/espnet_onnx.git
  1. 创建虚拟环境。
cd tools make venv export
  1. 激活虚拟环境并根据需要安装torch。
. tools/venv/bin/activate # 请参考PyTorch的官方安装指南。 pip install torch
  1. 克隆s3prl仓库并用pip安装。
cd tools git clone https://github.com/s3prl/s3prl cd s3prl pip install .
  1. 为开发transducer模型安装warp_transducer。
cd tools git clone --single-branch --branch espnet_v1.1 https://github.com/b-flo/warp-transducer.git cd warp-transducer mkdir build # 请将WITH_OMP设置为ON或OFF。 cd build && cmake -DWITH_OMP="ON" .. && make cd pytorch_binding && python3 -m pip install -e .
  1. 如果你想开发优化,还需要开发onnxruntime。请克隆onnxruntime仓库。

  2. 由于espnet==202308(v0.2.0发布时的最新版本)要求protobuf<=3.20.1,而最新的onnx要求protobuf>=3.20.2,你可能会在安装时遇到错误。 在这种情况下,首先安装espnet==202308,将protobuf更新到3.20.3,然后安装其他库。

用法

导出模型

  1. espnet_onnx可以导出espnet_model_zoo上发布的预训练模型。默认情况下,导出的文件将存储在${HOME}/.cache/espnet_onnx/<tag_name>中。
from espnet2.bin.asr_inference import Speech2Text from espnet_onnx.export import ASRModelExport m = ASRModelExport() # 从espnet_model_zoo下载并从预训练模型导出 m.export_from_pretrained('<tag name>', quantize=True) # 从训练好的模型导出 speech2text = Speech2Text(args) m.export(speech2text, '<tag name>', quantize=True)
  1. 你可以从zip文件导出预训练模型。zip文件应包含meta.yaml
from espnet_onnx.export import ASRModelExport m = ASRModelExport() m.export_from_zip( 'path/to/the/zipfile', tag_name='tag_name_for_zipped_model', quantize=True )
  1. 你可以为导出设置一些配置。每个模型的可用配置在详细说明中显示。
from espnet_onnx.export import ASRModelExport m = ASRModelExport() # 将最大序列长度设置为3000 m.set_export_config(max_seq_len=3000) m.export_from_zip( 'path/to/the/zipfile', tag_name='tag_name_for_zipped_model', )
  1. 你可以使用optimize选项轻松优化你的模型。如果你想充分优化你的模型,你需要从这里安装onnxruntime的自定义版本。更多详情请阅读这个文档
from espnet_onnx.export import ASRModelExport m = ASRModelExport() m.export_from_zip( 'path/to/the/zipfile', tag_name='tag_name_for_zipped_model', optimize=True, quantize=True )
  1. 你可以从命令行导出模型。
python -m espnet_onnx.export \ --model_type asr \ --input ${path_to_zip} \ --tag transformer_lm \ --apply_optimize \ --apply_quantize

推理

  1. 对于推理,使用tag_namemodel_dir来加载onnx文件。tag_name必须在tag_config.yaml中定义。
import librosa from espnet_onnx import Speech2Text speech2text = Speech2Text(tag_name='<tag name>') # speech2text = Speech2Text(model_dir='path to the onnx directory') y, sr = librosa.load('sample.wav', sr=16000) nbest = speech2text(y)
  1. 对于流式ASR,你可以使用StreamingSpeech2Text类。语音长度应与StreamingSpeech2Text.hop_size相同。
from espnet_onnx import StreamingSpeech2Text stream_asr = StreamingSpeech2Text(tag_name) # 开始流式ASR stream_asr.start() while streaming: wav = <some code to get wav> assert len(wav) == stream_asr.hop_size stream_text = stream_asr(wav)[0][0] # 你可以用end函数获取非流式ASR结果 nbest = stream_asr.end()

你也可以用simulate函数模拟你的wav文件的流式模型。将True作为第二个参数传递将显示如下代码的流式文本。

import librosa from espnet_onnx import StreamingSpeech2Text stream_asr = StreamingSpeech2Text(tag_name) y, sr = librosa.load('path/to/wav', sr=16000) nbest = stream_asr.simulate(y, True) # 使用6个进程处理音频。 # 位置0的结果: # 位置1的结果: # 位置2的结果:this # 位置3的结果:this is # 位置4的结果:this is a # 位置5的结果:this is a print(nbest[0][0]) # 'this is a pen'
  1. 如果您安装了自定义版本的onnxruntime,您可以运行优化模型进行推理。您无需更改上述任何代码。如果模型已优化,espnet_onnx会自动加载优化版本。

  2. 您可以仅使用hubert模型作为前端。

from espnet_onnx.export import ASRModelExport # 导出模型 tag_name = 'ESPnet预训练模型与hubert' m = ASRModelExport() m.export_from_pretrained(tag_name, optimize=True) # 仅加载前端模型 from espnet_onnx.asr.frontend import Frontend frontend = Frontend.get_frontend(tag_name) # 在应用中使用模型 import librosa y, sr = librosa.load('wav文件') # y: (B, T) # y_len: (B,) feats = frontend(y[None,:], np.array([len(y)]))
  1. 如果您在环境中安装了torch,可以在训练中使用前端。
from espnet_onnx.asr.frontend import TorchFrontend frontend = TorchFrontend.get_frontend(tag_name) # 加载预训练前端模型 # 在训练时使用模型 import librosa y, sr = librosa.load('wav文件') # 需要将数据放在GPU上, # 并以元组形式指定输出形状 y = torch.Tensor(y).unsqueeze(0).to('cuda') # (1, wav_length) output_shape = (batch_size, feat_length, feats_dims) feats = frontend(y, y.size(1), output_shape)

文本到语音推理

  1. 您可以像导出ASR模型一样导出TTS模型。
from espnet2.bin.tts_inference import Text2Speech from espnet_onnx.export import TTSModelExport m = TTSModelExport() # 从espnet_model_zoo下载并从预训练模型导出 m.export_from_pretrained('<tag name>', quantize=True) # 从训练好的模型导出 text2speech = Text2Speech(args) m.export(text2speech, '<tag name>', quantize=True)
  1. 您可以简单地使用Text2Speech类生成wav文件。
from espnet_onnx import Text2Speech tag_name = 'kan-bayashi/ljspeech_vits' text2speech = Text2Speech(tag_name, use_quantized=True) text = 'Hello world!' output_dict = text2speech(text) # 使用onnx模型进行推理。 wav = output_dict['wav']

如何在espnet_onnx上使用GPU

安装依赖。

首先,我们需要onnxruntime-gpu库,而不是onnxruntime。请按照这篇文章选择并安装正确版本的onnxruntime-gpu,具体取决于您的CUDA版本。

在GPU上进行推理

现在您可以使用GPU加速推理速度。您只需选择正确的提供程序,并将其提供给Speech2TextStreamingSpeech2Text实例。有关提供程序的更多信息,请参阅这篇文章

import librosa from espnet_onnx import Speech2Text PROVIDERS = ['CUDAExecutionProvider'] tag_name = 'some_tag_name' speech2text = Speech2Text( tag_name, providers=PROVIDERS ) y, sr = librosa.load('path/to/wav', sr=16000) nbest = speech2text(y) # 在GPU上运行。

请注意,某些量化模型不支持GPU计算。如果使用量化模型出现错误,请尝试使用非量化模型。

与ESPNet的变更

为避免缓存问题,我修改了原始espnet实现中的一些脚本。

  1. <sos>之前添加<blank>

  2. 向模型提供一些torch.zeros()数组。

  3. 在后处理中移除第一个标记。(移除blank

  4. make_pad_mask替换为新的实现,可转换为onnx格式。

  5. 从位置编码模块中移除extend_pe()pe的默认长度为512。

支持的架构

ASR:ASR支持的架构

TTS:TTS支持的架构

开发者指南

ASR:开发者指南

参考文献

版权

版权所有 (c) 2022 Maso Someki

根据MIT许可证发布

作者

Masao Someki

联系方式:masao.someki@gmail.com

编辑推荐精选

问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

聊天机器人AI助手热门AI工具AI对话
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多