soundstorm-pytorch

soundstorm-pytorch

基于PyTorch的高效并行音频生成模型

SoundStorm是Google DeepMind开发的高效并行音频生成模型,本项目提供其PyTorch实现。该模型将MaskGiT技术应用于Soundstream的残差向量量化编码,采用Conformer架构。项目包含完整的训练和生成代码,支持原始音频处理和文本到语音转换。此实现整合了多个相关模型,旨在促进前沿语音合成技术的应用与研究。

SoundStorm音频生成Pytorch深度学习人工智能Github开源项目

<img src="https://yellow-cdn.veclightyear.com/0a4dffa0/4e4fd76d-0b7b-4344-aedc-a3994ad1619e.png" width="450px"></img>

Soundstorm - Pytorch

Google Deepmind提出的<a href="https://arxiv.org/abs/2305.09636">SoundStorm</a>高效并行音频生成的Pytorch实现。

他们基本上将<a href="https://arxiv.org/abs/2202.04200">MaskGiT</a>应用于<a href="https://github.com/lucidrains/audiolm-pytorch#soundstream--encodec">Soundstream</a>的残差向量量化编码。他们选择使用的transformer架构是一个非常适合音频领域的架构,名为<a href="https://arxiv.org/abs/2005.08100">Conformer</a>

<a href="https://google-research.github.io/seanet/soundstorm/examples/">项目页面</a>

致谢

  • 感谢<a href="https://stability.ai/">Stability</a><a href="https://huggingface.co/">🤗 Huggingface</a>慷慨赞助,支持开发和开源前沿人工智能研究

  • 感谢<a href="https://github.com/lucasnewman">Lucas Newman</a>的诸多贡献,包括初始训练代码、声学提示逻辑和每级量化器解码!

  • 感谢<a href="https://huggingface.co/docs/accelerate/index">🤗 Accelerate</a>提供简单而强大的训练解决方案

  • 感谢<a href="https://einops.rocks/">Einops</a>提供不可或缺的抽象,使构建神经网络变得有趣、简单和令人振奋

  • 感谢<a href="https://github.com/stevenhillis">Steven Hillis</a>提交正确的掩蔽策略并验证仓库可用!🙏

  • 感谢<a href="https://github.com/lucasnewman">Lucas Newman</a>基本上用多个仓库的模型训练了一个小型可用的Soundstorm,展示了端到端的工作流程。使用的模型包括<a href="https://github.com/lucidrains/audiolm-pytorch">SoundStream</a><a href="https://github.com/lucidrains/spear-tts-pytorch">Text-to-Semantic T5</a>,以及这里的SoundStorm transformer。

  • 感谢<a href="https://github.com/Jiang-Stan">@Jiang-Stan</a>发现了迭代去掩蔽中的一个关键bug!

安装

$ pip install soundstorm-pytorch

使用方法

import torch from soundstorm_pytorch import SoundStorm, ConformerWrapper conformer = ConformerWrapper( codebook_size = 1024, num_quantizers = 12, conformer = dict( dim = 512, depth = 2 ), ) model = SoundStorm( conformer, steps = 18, # 18步,与原始maskgit论文一致 schedule = 'cosine' # 目前最佳的调度是余弦调度 ) # 从大量原始音频中获取预编码的codebook ids codes = torch.randint(0, 1024, (2, 1024, 12)) # (批次, 序列, 残差VQ数量) # 对大量数据循环执行以下操作 loss, _ = model(codes) loss.backward() # 模型现在可以在18步内生成。~2秒听起来合理 generated = model.generate(1024, batch_size = 2) # (2, 1024)

要直接在原始音频上训练,你需要将预训练的SoundStream传入SoundStorm。你可以在<a href="https://github.com/lucidrains/audiolm-pytorch#soundstream--encodec">audiolm-pytorch</a>训练自己的SoundStream

import torch from soundstorm_pytorch import SoundStorm, ConformerWrapper, Conformer, SoundStream conformer = ConformerWrapper( codebook_size = 1024, num_quantizers = 12, conformer = dict( dim = 512, depth = 2 ), ) soundstream = SoundStream( codebook_size = 1024, rq_num_quantizers = 12, attn_window_size = 128, attn_depth = 2 ) model = SoundStorm( conformer, soundstream = soundstream # 传入soundstream ) # 找到你希望模型学习的尽可能多的音频 audio = torch.randn(2, 10080) # 将其通过模型并进行大量tiny步骤 loss, _ = model(audio) loss.backward() # 现在你可以生成最先进的语音了 generated_audio = model.generate(seconds = 30, batch_size = 2) # 生成30秒的音频(它会根据传入的soundstream的采样频率和累积下采样来计算秒数对应的长度)

完整的文本到语音将依赖于训练好的TextToSemantic编码器/解码器transformer。你需要加载权重并将其作为spear_tts_text_to_semantic传入SoundStorm

这是一项进行中的工作,因为spear-tts-pytorch目前只完成了模型架构,还没有预训练+伪标签+反向翻译逻辑。

from spear_tts_pytorch import TextToSemantic text_to_semantic = TextToSemantic( dim = 512, source_depth = 12, target_depth = 12, num_text_token_ids = 50000, num_semantic_token_ids = 20000, use_openai_tokenizer = True ) # 加载训练好的text-to-semantic transformer text_to_semantic.load('/path/to/trained/model.pt') # 将其传入soundstorm model = SoundStorm( conformer, soundstream = soundstream, spear_tts_text_to_semantic = text_to_semantic ).cuda() # 现在你可以生成最先进的语音了 generated_speech = model.generate( texts = [ 'the rain in spain stays mainly in the plain', 'the quick brown fox jumps over the lazy dog' ] ) # (2, n) - 从soundstream解码的原始波形

待办事项

  • 集成 soundstream

  • 生成时,长度可以以秒为单位定义(考虑采样频率等因素)

  • 确保支持分组 RVQ。在组维度上连接嵌入而非求和

  • 直接复制 conformer 并用旋转位置嵌入重做 Shaw 的相对位置嵌入。现在没人再用 Shaw 的方法了

  • 默认启用 flash attention

  • 移除批量归一化,只使用层归一化,但放在 swish 激活函数之后(如 normformer 论文所述)

  • 使用 accelerate 的训练器 - 感谢 @lucasnewman

  • 通过在 forwardgenerate 时传入 mask 来允许可变长度序列的训练和生成

  • 生成时选择返回音频文件列表

  • 将其转换为命令行工具

  • 添加交叉注意力和自适应层归一化条件

引用

[此处省略引用部分的翻译,保留原文]

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多