soundstorm-pytorch

soundstorm-pytorch

基于PyTorch的高效并行音频生成模型

SoundStorm是Google DeepMind开发的高效并行音频生成模型,本项目提供其PyTorch实现。该模型将MaskGiT技术应用于Soundstream的残差向量量化编码,采用Conformer架构。项目包含完整的训练和生成代码,支持原始音频处理和文本到语音转换。此实现整合了多个相关模型,旨在促进前沿语音合成技术的应用与研究。

SoundStorm音频生成Pytorch深度学习人工智能Github开源项目

<img src="https://yellow-cdn.veclightyear.com/0a4dffa0/4e4fd76d-0b7b-4344-aedc-a3994ad1619e.png" width="450px"></img>

Soundstorm - Pytorch

Google Deepmind提出的<a href="https://arxiv.org/abs/2305.09636">SoundStorm</a>高效并行音频生成的Pytorch实现。

他们基本上将<a href="https://arxiv.org/abs/2202.04200">MaskGiT</a>应用于<a href="https://github.com/lucidrains/audiolm-pytorch#soundstream--encodec">Soundstream</a>的残差向量量化编码。他们选择使用的transformer架构是一个非常适合音频领域的架构,名为<a href="https://arxiv.org/abs/2005.08100">Conformer</a>

<a href="https://google-research.github.io/seanet/soundstorm/examples/">项目页面</a>

致谢

  • 感谢<a href="https://stability.ai/">Stability</a><a href="https://huggingface.co/">🤗 Huggingface</a>慷慨赞助,支持开发和开源前沿人工智能研究

  • 感谢<a href="https://github.com/lucasnewman">Lucas Newman</a>的诸多贡献,包括初始训练代码、声学提示逻辑和每级量化器解码!

  • 感谢<a href="https://huggingface.co/docs/accelerate/index">🤗 Accelerate</a>提供简单而强大的训练解决方案

  • 感谢<a href="https://einops.rocks/">Einops</a>提供不可或缺的抽象,使构建神经网络变得有趣、简单和令人振奋

  • 感谢<a href="https://github.com/stevenhillis">Steven Hillis</a>提交正确的掩蔽策略并验证仓库可用!🙏

  • 感谢<a href="https://github.com/lucasnewman">Lucas Newman</a>基本上用多个仓库的模型训练了一个小型可用的Soundstorm,展示了端到端的工作流程。使用的模型包括<a href="https://github.com/lucidrains/audiolm-pytorch">SoundStream</a><a href="https://github.com/lucidrains/spear-tts-pytorch">Text-to-Semantic T5</a>,以及这里的SoundStorm transformer。

  • 感谢<a href="https://github.com/Jiang-Stan">@Jiang-Stan</a>发现了迭代去掩蔽中的一个关键bug!

安装

$ pip install soundstorm-pytorch

使用方法

import torch from soundstorm_pytorch import SoundStorm, ConformerWrapper conformer = ConformerWrapper( codebook_size = 1024, num_quantizers = 12, conformer = dict( dim = 512, depth = 2 ), ) model = SoundStorm( conformer, steps = 18, # 18步,与原始maskgit论文一致 schedule = 'cosine' # 目前最佳的调度是余弦调度 ) # 从大量原始音频中获取预编码的codebook ids codes = torch.randint(0, 1024, (2, 1024, 12)) # (批次, 序列, 残差VQ数量) # 对大量数据循环执行以下操作 loss, _ = model(codes) loss.backward() # 模型现在可以在18步内生成。~2秒听起来合理 generated = model.generate(1024, batch_size = 2) # (2, 1024)

要直接在原始音频上训练,你需要将预训练的SoundStream传入SoundStorm。你可以在<a href="https://github.com/lucidrains/audiolm-pytorch#soundstream--encodec">audiolm-pytorch</a>训练自己的SoundStream

import torch from soundstorm_pytorch import SoundStorm, ConformerWrapper, Conformer, SoundStream conformer = ConformerWrapper( codebook_size = 1024, num_quantizers = 12, conformer = dict( dim = 512, depth = 2 ), ) soundstream = SoundStream( codebook_size = 1024, rq_num_quantizers = 12, attn_window_size = 128, attn_depth = 2 ) model = SoundStorm( conformer, soundstream = soundstream # 传入soundstream ) # 找到你希望模型学习的尽可能多的音频 audio = torch.randn(2, 10080) # 将其通过模型并进行大量tiny步骤 loss, _ = model(audio) loss.backward() # 现在你可以生成最先进的语音了 generated_audio = model.generate(seconds = 30, batch_size = 2) # 生成30秒的音频(它会根据传入的soundstream的采样频率和累积下采样来计算秒数对应的长度)

完整的文本到语音将依赖于训练好的TextToSemantic编码器/解码器transformer。你需要加载权重并将其作为spear_tts_text_to_semantic传入SoundStorm

这是一项进行中的工作,因为spear-tts-pytorch目前只完成了模型架构,还没有预训练+伪标签+反向翻译逻辑。

from spear_tts_pytorch import TextToSemantic text_to_semantic = TextToSemantic( dim = 512, source_depth = 12, target_depth = 12, num_text_token_ids = 50000, num_semantic_token_ids = 20000, use_openai_tokenizer = True ) # 加载训练好的text-to-semantic transformer text_to_semantic.load('/path/to/trained/model.pt') # 将其传入soundstorm model = SoundStorm( conformer, soundstream = soundstream, spear_tts_text_to_semantic = text_to_semantic ).cuda() # 现在你可以生成最先进的语音了 generated_speech = model.generate( texts = [ 'the rain in spain stays mainly in the plain', 'the quick brown fox jumps over the lazy dog' ] ) # (2, n) - 从soundstream解码的原始波形

待办事项

  • 集成 soundstream

  • 生成时,长度可以以秒为单位定义(考虑采样频率等因素)

  • 确保支持分组 RVQ。在组维度上连接嵌入而非求和

  • 直接复制 conformer 并用旋转位置嵌入重做 Shaw 的相对位置嵌入。现在没人再用 Shaw 的方法了

  • 默认启用 flash attention

  • 移除批量归一化,只使用层归一化,但放在 swish 激活函数之后(如 normformer 论文所述)

  • 使用 accelerate 的训练器 - 感谢 @lucasnewman

  • 通过在 forwardgenerate 时传入 mask 来允许可变长度序列的训练和生成

  • 生成时选择返回音频文件列表

  • 将其转换为命令行工具

  • 添加交叉注意力和自适应层归一化条件

引用

[此处省略引用部分的翻译,保留原文]

编辑推荐精选

潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

下拉加载更多