ZMM-TTS

ZMM-TTS

零样本多语言多说话人语音合成技术创新

ZMM-TTS是一个多语言多说话人语音合成框架,基于大规模预训练自监督模型的量化语音表示。该项目首次将文本和语音自监督学习模型的表示应用于多语言语音合成。实验表明,ZMM-TTS在六种高资源语言中,对已知和未知说话人都能生成自然度高、相似度好的语音。即使对缺乏训练数据的新语言,也能合成清晰且与目标说话人相似的音频。

ZMM-TTS语音合成多语言多说话人自监督学习Github开源项目

ZMM-TTS: 基于自监督离散语音表示的零样本多语言多说话人语音合成

<a href='https://gongchenghhu.github.io/TASLP-demo/'><img src='https://img.shields.io/badge/演示-页面-blue'></a> <a href='https://arxiv.org/abs/2312.14398'><img src='https://img.shields.io/badge/论文-Arxiv-red'></a>

简介

这是提交给IEEE TASLP的ZMM-TTS的代码。本文提出了ZMM-TTS,一个利用大规模预训练自监督模型量化潜在语音表示的多语言多说话人框架。我们的论文首次将基于文本和语音的自监督学习模型的表示结合到多语言语音合成任务中。我们通过一系列实验进行了全面的主观和客观评估。我们的模型在六种高资源语言的已见和未见说话人的语音自然度和相似度方面都被证明是有效的。我们还测试了我们方法在两种假设的低资源语言上的效果。结果很有希望,表明我们提出的方法即使没有新的未见语言的任何训练数据,也能合成可理解且与目标说话人声音高度相似的音频。

<br> <p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/7a40fb6f-0871-4f58-b7cb-a1dbdb7e2e81.png" width="95%"> <br> 概览 </p> <be>

欢迎尝试我们的代码和在不同语言上预训练的模型!

发布

  • [01/20] 🔥 我们发布了在6种语言(英语、法语、德语、葡萄牙语、西班牙语和瑞典语)公开数据集上预训练的代码和模型。

样本

样本可在我们的演示页面上找到。

安装

ZMM-TTS 需要 Python>=3.8,以及较新版本的 PyTorch。 要安装 ZMM-TTS 并快速合成,您可以从此仓库运行:

git clone https://github.com/nii-yamagishilab-visitors/ZMM-TTS.git cd ZMM-TTS pip3 install -r requirements.txt #此外,您可能需要安装这些库以支持完整功能。 pip install transformers #用于支持 XLSR-53 和 XphoneBERT 模型。 pip install speechbrain #用于提取说话人嵌入。

如果您想尝试 IPA 表示,您需要安装 Epitran

预训练自监督模型

模型模态语言训练数据
XLSR-53音频5356K 小时
ECAPA-TDNN音频> 52794 小时
XPhoneBERT文本943.3亿句

使用方法

多语言多说话人数据集 MM6

在我的论文中,我们使用的训练数据包含了 GlobalPhone,遗憾的是这不是开源数据。 考虑到公开的多语言多说话人语音合成数据库的稀缺性,我基于 MLSNHT Swedish 数据库设计了以下训练数据库,并将其称为 MM6。(似乎 NST 不再开放瑞典语的下载,在这种情况下,您应该从挪威语言银行申请这些数据)。如果您有 GlobalPhone 数据集,您可以尝试与我们论文相同的训练数据 Dataset/train_paper.txt

语言性别说话人数句子数时长(小时)数据库
英语20400013.9MLS
英语20400013.9MLS
法语20400013.9MLS
法语20400013.9MLS
德语20400013.9MLS
德语20400013.9MLS
葡萄牙语16374113.0MLS
葡萄牙语20417514.5MLS
西班牙语20351912.2MLS
西班牙语20378613.1MLS
瑞典语000
瑞典语20400013.9NST

下载和标准化数据

您可以通过以下下载和标准化脚本生成 MM6 数据集:

bash scripts/download.sh #下载 MLS 数据。 python prepare_data/creat_meta_data_mls.py #生成说话人-性别-语言平衡数据。 #我们建议您使用 sv56 来标准化 MLS 音频。 bash scripts/norm_wav.sh

如果您想获取 NHT Swedish 数据,请联系挪威语言银行,并将其解压到 Dataset/origin_data/。 或者,您也可以简单地考虑排除瑞典语。

#瑞典语音频已经标准化 python prepare_data/creat_meta_data_swe.py

这个MM6是一个多语言数据集,包含大致平衡的说话人和性别混合,我们鼓励你也尝试其他任务。

预处理

下载并标准化wav文件后,你可以在Dataset文件夹中生成如下结构:

|--Dataset |--MM6 |--wavs #存储音频文件 |--preprocessed_data #存储预处理数据:文本、特征等 |--MM6 |--train.txt

你可以在Dataset/MM6/wavs/中找到wav文件,在Dataset/preprocessed_data/ZMM6/train.txt中找到元数据文件。 train.txt的内容如下:

名称|数据库|语言|说话人|文本 7756_9025_000004|MM6|英语|7756|我也踮着脚尖跟着他,就在他的手放在衣柜门上时,我的手掐住了他的喉咙。他个子矮小,不是我的对手
    1. 提取离散编码索引和表示:
bash scripts/extract_discrete.sh
    1. 提取说话人嵌入:
bash scripts/extract_spk.sh
    1. 提取文本序列:
python prepare_data/extract_text_seq_from_raw_text.py
    1. 提取梅尔频谱图:
python prepare_data/compute_mel.py
    1. 计算先验对齐概率:
python prepare_data/compute_attention_prior.py

训练模型

    1. 训练txt2vec模型:
#使用XphoneBERT: python txt2vec/train.py --dataset MM6 --config MM6_XphoneBERT #使用字符(字母): python txt2vec/train.py --dataset MM6 --config MM6_Letters #使用IPA: python txt2vec/train.py --dataset MM6 --config MM6_IPA #如果你想训练不带语言层的模型,可以使用xxx_wo配置,如: python txt2vec/train.py --dataset MM6 --config MM6_XphoneBERT_wo

注意:使用XphoneBERT时,请在1/4迭代后将model.yaml中的needUpdate设为True

  • 2. 训练vec2mel模型:
python vec2mel/train.py --dataset MM6 --config MM6

对于txt2vec和vec2mel模型的训练,我们使用了16的批量大小,训练了120万步。 在1块Tesla A100 GPU上大约需要3天。

  • 3. 训练vec2wav模型:
python prepare_data/creat_lists.py python vec2wav/train.py -c Config/vec2wav/vec2wav.yaml #如果你想训练不带语言层的模型: python vec2wav/train.py -c Config/vec2wav/vec2wav_wo.yaml

对于vec2wav的训练,我们使用了16的批量大小,训练了100万步。 在1块Tesla A100 GPU上大约需要3天。

    1. 训练HifiGAN模型:
python Vocoder_HifiGAN_Model/train.py --config Config/config_16k_mel.json

对于HifiGAN的训练,我们使用了16的批量大小,训练了100万步。 在1块Tesla A100 GPU上大约需要3天。

测试模型

    1. 准备测试数据:
    • a. 测试元数据文件Dataset/MM6/test.txt
    • b. 参考说话人嵌入在Dataset/MM6/test_spk_emb/中。
    1. 生成样本
    bash test_scripts/quick_test.sh

    当然,你也可以从谷歌云盘下载我们预训练的模型。将其放在相应的Train_log目录中。训练日志可以在相应的Train_log文件中找到。

    1. 结果将在test_result文件中找到。

待办事项

  • 少样本训练脚本。
  • 任何语言的零样本推理脚本。

引用

如果你在论文中使用了这个代码、结果或MM6数据集,请引用我们的工作:

@article{gong2023zmm, title={ZMM-TTS: Zero-shot Multilingual and Multispeaker Speech Synthesis Conditioned on Self-supervised Discrete Speech Representations}, author={Gong, Cheng and Wang, Xin and Cooper, Erica and Wells, Dan and Wang, Longbiao and Dang, Jianwu and Richmond, Korin and Yamagishi, Junichi}, journal={arXiv preprint arXiv:2312.14398}, year={2023} }

参考文献

许可证

本仓库中的代码以BSD-3-Clause许可证发布,详见LICENSE文件。 txt2vecvec2melvec2wav子文件夹采用MIT许可证。 sv56scripts采用GPL许可证。

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

热门AI工具AI办公办公工具智能排版AI生成PPT博思AIPPT海量精品模板AI创作
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多