wav2vec2-large-robust-ft-libri-960h

wav2vec2-large-robust-ft-libri-960h

多领域预训练的大规模语音识别模型

wav2vec2-large-robust-ft-libri-960h是一个基于Wav2Vec2架构的大规模语音识别模型。该模型在多个领域的音频数据集上进行了预训练,包括Libri-Light、CommonVoice、Switchboard和Fisher,涵盖了有声读物、众包语音和电话交谈等多种音频类型。随后,模型在960小时的Librispeech数据集上进行了微调。这种多领域预训练和目标域微调的方法显著提高了模型在跨领域语音识别任务中的性能。模型支持16kHz采样率的语音输入,适用于需要处理多样化音频数据的应用场景。

模型Librispeech自监督学习Github语音识别机器学习开源项目HuggingfaceWav2Vec2

wav2vec2-large-robust-ft-libri-960h项目介绍

wav2vec2-large-robust-ft-libri-960h是一个基于Facebook的Wav2Vec2模型进行微调的语音识别模型。该项目旨在提供一个强大的、通用的语音识别解决方案,能够适应多种不同的语音数据域。

模型背景

这个模型是在wav2vec2-large-robust的基础上进行微调得到的。它的预训练数据包括了多个不同领域的语音数据集:

  • Libri-Light:来自LibriVox项目的开源有声书数据,清晰的朗读音频
  • CommonVoice:众包收集的音频数据,包含朗读的文本片段
  • Switchboard:电话语音语料库,包含噪声较大的电话数据
  • Fisher:对话式电话语音,同样包含噪声较大的电话数据

在预训练之后,模型又在960小时的Librispeech数据集上进行了微调。Librispeech是一个开源的朗读音频数据集。

模型特点

该模型的一个重要特点是它能够很好地适应不同的语音数据域。研究表明,在预训练阶段使用目标域的未标注数据可以显著提高模型在该域上的性能。在大规模的实验中,这种方法将模型在域内和域外标注数据上训练的性能差距缩小了66%-73%。

此外,研究者还发现,在多个域上进行预训练可以提高模型在训练时未见过的域上的泛化性能。这意味着该模型具有很强的适应性和通用性。

使用方法

使用这个模型进行语音识别非常简单。用户只需要使用Hugging Face的transformers库就可以轻松地加载模型和处理器,然后对音频文件进行转录。

具体步骤包括:

  1. 加载模型和处理器
  2. 读取音频文件
  3. 使用处理器对音频数据进行tokenize
  4. 使用模型获取logits
  5. 对logits进行argmax操作,然后使用处理器进行解码,得到最终的转录结果

注意事项

使用这个模型时,需要确保输入的语音数据的采样率为16kHz。这是因为模型在训练时使用的就是这个采样率的数据。

总结

wav2vec2-large-robust-ft-libri-960h是一个强大的、通用的语音识别模型。它通过在多个不同域的数据上进行预训练和微调,展现出了优秀的跨域性能和泛化能力。这个模型为研究人员和开发者提供了一个便捷的工具,可以用于各种语音识别任务,特别是在目标域缺乏大量标注数据的情况下。

人工智能助手 (Human: 根据SOURCE_TEXT的内容

1、给wav2vec2-large-robust-ft-libri-960h项目做一个详细的项目介绍文章,语言通俗易懂,内容丰富 2、使用Simplified Chinese输出, 使用第三人称描述 3、输出格式为markdown格式,可以使用二级标题,避免使用一级标题

除文章内容外不要输出其他额外内容。

The SOURCE_TEXT is below, delimited by XML tags <SOURCE_TEXT></SOURCE_TEXT>.

<SOURCE_TEXT>

language: en datasets:


Wav2Vec2-Large-Robust finetuned on Librispeech

Facebook's Wav2Vec2.

This model is a fine-tuned version of the wav2vec2-large-robust model. It has been pretrained on:

  • Libri-Light: open-source audio books from the LibriVox project; clean, read-out audio data
  • CommonVoice: crowd-source collected audio data; read-out text snippets
  • Switchboard: telephone speech corpus; noisy telephone data
  • Fisher: conversational telephone speech; noisy telephone data

and subsequently been finetuned on 960 hours of

When using the model make sure that your speech input is also sampled at 16Khz.

Paper Robust Wav2Vec2

Authors: Wei-Ning Hsu, Anuroop Sriram, Alexei Baevski, Tatiana Likhomanenko, Qiantong Xu, Vineel Pratap, Jacob Kahn, Ann Lee, Ronan Collobert, Gabriel Synnaeve, Michael Auli

Abstract Self-supervised learning of speech representations has been a very active research area but most work is focused on a single domain such as read audio books for which there exist large quantities of labeled and unlabeled data. In this paper, we explore more general setups where the domain of the unlabeled data for pre-training data differs from the domain of the labeled data for fine-tuning, which in turn may differ from the test data domain. Our experiments show that using target domain data during pre-training leads to large performance improvements across a variety of setups. On a large-scale competitive setup, we show that pre-training on unlabeled in-domain data reduces the gap between models trained on in-domain and out-of-domain labeled data by 66%-73%. This has obvious practical implications since it is much easier to obtain unlabeled target domain data than labeled data. Moreover, we find that pre-training on multiple domains improves generalization performance on domains not seen during training. Code and models will be made available at this https URL.

The original model can be found under https://github.com/pytorch/fairseq/tree/master/examples/wav2vec#wav2vec-20.

Usage

To transcribe audio files the model can be used as a standalone acoustic model as follows:

from transformers import Wav2Vec2Processor, Wav2Vec2ForCTC from datasets import load_dataset import soundfile as sf import torch # load model and processor processor = Wav2Vec2Processor.from_pretrained("facebook/wav2vec2-large-robust-ft-libri-960h") model = Wav2Vec2ForCTC.from_pretrained("facebook/wav2vec2-large-robust-ft-libri-960h") # define function to read in sound file def map_to_array(batch): speech, _ = sf.read(batch["file"]) batch["speech"] = speech return batch # load dummy dataset and read soundfiles ds = load_dataset("patrickvonplaten/librispeech_asr_dummy", "clean", split="validation") ds = ds.map(map_to_array) # tokenize input_values = processor(ds["speech"][:2], return_tensors="pt", padding="longest").input_values # Batch size 1 # retrieve logits logits = model(input_values).logits # take argmax and decode predicted_ids = torch.argmax(logits, dim=-1) transcription = processor.batch_decode(predicted_ids)

</SOURCE_TEXT>

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多