friendly-stable-audio-tools

friendly-stable-audio-tools

改进后的Stable Audio Tools开源框架支持音频生成模型训练和推理

该项目是对Stability AI的stable-audio-tools的重构和增强,提供了音频和音乐生成模型的开源代码。重构后的代码提高了可读性和易用性,并新增了评估和使用自训练模型的脚本。项目详细说明了如何训练Stable Audio 2.0等模型,并提供了Stable Audio Open 1.0的使用文档和便捷脚本。此外,项目支持多GPU/节点生成,并集成了Gradio界面用于测试模型。

Stable AudioAI音频生成模型训练深度学习音乐生成Github开源项目

🐈 friendly-stable-audio-tools

Stable Audio 2.0

本仓库是对 stable-audio-tools 的重构/更新版本,stable-audio-tools 是 Stability AI 最初开发的音频/音乐生成模型开源代码。

本仓库包含以下额外功能:

  • 🔥 重构了 stable-audio-tools 的代码,提高了可读性和易用性。
  • 🔥 提供了用于评估和使用自己训练模型的实用脚本。
  • 🔥 提供了如何训练 Stable Audio 2.0 等模型的说明。
  • 🔥 为使用 Stable Audio Open 1.0 提供了详细文档和便捷脚本。

🔥 Stable Audio Open

Stability AI 现已开源 Stable Audio 的预训练模型。

如果您对如何使用 Stable Audio Open 感兴趣,请参阅以下文档以获取详细说明。

要求

  • PyTorch 2.0 或更高版本,以支持 Flash Attention
  • 本仓库的开发在 Python 3.8.10 或更高版本中进行

安装

要运行训练脚本或推理代码,您需要克隆此仓库,导航到根目录,然后执行以下 pip 命令:

$ git clone https://github.com/yukara-ikemiya/friendly-stable-audio-tools.git $ cd friendly-stable-audio-tools $ pip install . $ # 为避免 Accelerate 导入错误,您可能需要执行以下命令 $ pip uninstall -y transformer-engine

构建训练环境

为简化训练环境的设置,我建议使用 DockerSingularity 等容器系统,而不是在每台 GPU 机器上安装依赖项。以下是创建 Docker 和 Singularity 容器的步骤。

所有示例脚本都存储在 container 文件夹中。

请确保事先安装了 Docker 和 Singularity。

1. 创建 Docker 镜像

$ # 创建 Docker 镜像 $ NAME=friendly-stable-audio-tools $ docker build -t ${NAME} -f ./container/${NAME}.Dockerfile .

2. 将 Docker 镜像转换为 Singularity 容器

$ # 将 Docker 镜像转换为 Singularity 容器 $ singularity build friendly-stable-audio-tools.sif docker-daemon://friendly-stable-audio-tools

运行上述脚本后,应在工作目录中创建 friendly-stable-audio-tools.sif

界面

提供了一个基本的 Gradio 界面来测试训练好的模型。

例如,要为 stable-audio-open-1.0 模型创建界面,一旦您在 Hugging Face 上接受了模型条款,您可以运行:

$ python3 ./run_gradio.py --pretrained-name stabilityai/stable-audio-open-1.0

如果您需要关于 Stable Audio Open 的更详细说明,我建议参考 Stable Audio Open 文档中的 Gradio 界面 部分。

run_gradio.py 脚本接受以下命令行参数:

  • --pretrained-name PRETRAINED_NAME(可选)
    • Hugging Face Hub 上的模型名称(例如 stabilityai/stable-audio-open-1.0
    • 将优先选择仓库中的 model.safetensors 而非 model.ckpt
    • 指定此参数时,将忽略 model-configckpt-path
  • --model-config MODEL_CONFIG(可选)
    • 本地模型的模型配置文件路径
  • --ckpt-path CKPT_PATH(可选)
    • 本地模型的未包装模型检查点文件路径
  • --pretransform-ckpt-path PRETRANSFORM_CKPT_PATH(可选)
    • 未包装的预转换检查点路径。这将替换模型中的预转换。
  • --username USERNAME / --password PASSWORD(可选)
    • 用于设置 Gradio 演示的登录信息
  • --model-half(可选)
    • 是否使用半精度
  • --tmp-dir TMP_DIR(可选)
    • 保存输出文件的临时目录

日志记录

WandB 设置

训练代码还需要一个 Weights & Biases 账户来记录训练输出和演示。创建账户并使用以下命令登录:

$ wandb login

或者您也可以通过环境变量 WANDB_API_KEY 传递 API 密钥。 (登录账户后,您可以从 https://wandb.ai/authorize 获取 API 密钥。)

$ WANDB_API_KEY="12345x6789y..."

当您想使用 Docker 或 Singularity 等容器执行代码时,这种方法很方便。

训练

配置文件

在开始训练之前,您需要准备以下两个配置文件。

  • 模型配置文件
  • 数据集配置文件

有关这些文件的更多信息,请参阅下面的配置部分。

从头开始训练

要开始训练,请在仓库根目录中运行 train.py 脚本:

$ python3 train.py --dataset-config /path/to/dataset/config --model-config /path/to/model/config --name my_experiment

--name 参数将设置您的 Weights and Biases 运行的项目名称。

微调

微调涉及从预训练检查点恢复训练运行。

  • 要从包装的检查点恢复训练,您可以使用 --ckpt-path 标志将检查点路径 (.ckpt) 传递给 train.py
  • 要从预训练的未包装模型开始全新训练,您可以使用 --pretrained-ckpt-path 标志将未包装的检查点路径 (.ckpt) 传递给 train.py

解包模型

stable-audio-tools 使用 PyTorch Lightning 来实现多 GPU 和多节点训练。

当模型正在训练时,它被包装在一个"训练包装器"中,这是一个包含所有仅用于训练的相关对象的 pl.LightningModule。这包括自动编码器的判别器、模型的 EMA 副本以及所有优化器状态等内容。

训练期间创建的检查点文件包括这个训练包装器,这大大增加了检查点文件的大小。

unwrap_model.py 接收一个包装的模型检查点,并保存一个仅包含模型本身的新检查点文件。

可以从存储库根目录运行以下命令:

$ python3 unwrap_model.py --model-config /path/to/model/config --ckpt-path /path/to/wrapped/ckpt.ckpt --name /new/path/to/new_ckpt_name

未包装的模型检查点是以下情况所必需的:

  • 推理脚本
  • 将模型用作另一个模型的预转换(例如,将自动编码器模型用于潜在扩散)
  • 使用修改后的配置对预训练模型进行微调(即部分初始化)

配置

stable-audio-tools 的训练和推理代码基于 JSON 配置文件,这些文件定义了模型超参数、训练设置和有关训练数据集的信息。

模型配置

模型配置文件定义了加载模型进行训练或推理所需的所有信息。它还包含微调模型或从头开始训练所需的训练配置。

模型配置的顶层定义了以下属性:

  • model_type
    • 正在定义的模型类型,目前仅限于 "autoencoder", "diffusion_uncond", "diffusion_cond", "diffusion_cond_inpaint", "diffusion_autoencoder", "lm" 之一。
  • sample_size
    • 训练期间提供给模型的音频长度,以样本为单位。对于扩散模型,这也是推理时使用的原始音频样本长度。
  • sample_rate
    • 训练期间提供给模型的音频采样率,以及推理期间生成的音频采样率,单位为 Hz。
  • audio_channels
    • 训练期间提供给模型的音频通道数,以及推理期间生成的音频通道数。默认为 2。单声道设置为 1。
  • model
    • 正在定义的模型的具体配置,根据 model_type 而变化。
  • training
    • 模型的训练配置,根据 model_type 而变化。提供训练参数以及演示。

数据集配置

stable-audio-tools 目前支持两种数据源:本地音频文件目录和存储在 Amazon S3 中的 WebDataset 数据集。更多信息可以在数据集配置文档中找到。

其他训练标志

train.py 的其他可选标志包括:

  • --config-file
    • 存储库根目录中 defaults.ini 文件的路径,如果从存储库根目录以外的目录运行 train.py,则需要此标志。
  • --pretransform-ckpt-path
    • 用于各种模型类型,如潜在扩散模型,以加载预训练的自动编码器。需要未包装的模型检查点。
  • --save-dir
    • 保存模型检查点的目录。
  • --checkpoint-every
    • 保存检查点之间的步数。
    • 默认值:10000
  • --batch-size
    • 训练期间每个 GPU 的样本数。应设置为 GPU VRAM 所允许的最大值。
    • 默认值:8
  • --num-gpus
    • 每个节点用于训练的 GPU 数量。
    • 默认值:1
  • --num-nodes
    • 用于训练的 GPU 节点数量。
    • 默认值:1
  • --accum-batches
    • 启用并设置梯度批累积的批次数。在较小的 GPU 上训练时,用于增加有效批量大小。
  • --strategy
    • 分布式训练的多 GPU 策略。设置为 deepspeed 将启用 DeepSpeed ZeRO Stage 2。
    • 默认值:如果 --num_gpus > 1,则为 ddp,否则为 None
  • --precision
    • 训练期间使用的浮点精度。
    • 默认值:16
  • --num-workers
    • 数据加载器使用的 CPU 工作进程数。
  • --seed
    • PyTorch 的 RNG 种子,有助于确定性训练。

🔥 让我们训练 Stable Audio 2.0

先决条件

准备 CLAP 编码器的检查点

要使用 CLAP 编码器进行音乐生成的条件控制,您必须准备 CLAP 的预训练检查点文件。

  1. LAION CLAP 存储库 下载使用音乐数据集训练的预训练 CLAP 检查点(music_audioset_epoch_15_esc_90.14.pt)。
  2. 将检查点文件存储到您选择的目录中。
  3. 按如下方式编辑 Stable Audio 2.0 的 模型配置 文件

= stable_audio_2_0.json =

... "model": { ... "conditioning": { "configs": [ { ... "config": { ... "clap_ckpt_path": "ckpt/clap/music_audioset_epoch_15_esc_90.14.pt", ...

准备用于训练的音频和元数据

由于 Stable Audio 使用文本提示作为音乐生成的条件,因此除了音频数据之外,您还必须准备它们作为元数据。

在本地环境中使用数据集时,我建议使用以下 JSON 格式的元数据。

  1. 您可以在 JSON 文件中包含任何信息作为元数据,但必须始终包含名为 prompt 的文本数据,这是 Stable Audio 训练所需的。 = music_2.json =
{
    "prompt": "这是一首传递正能量的电子音乐。"
}
  1. 元数据文件必须与相应的音频文件放在同一目录下。文件名也必须相同。
.
└── dataset/
    ├── music_1.wav
    ├── music_1.json
    ├── music_2.wav
    ├── music_2.json
    └── ...

第一阶段:VAE-GAN(压缩模型)

训练

作为Stable Audio 2.0的第一阶段,你将训练一个VAE-GAN,这是一个音频信号的压缩模型。

VAE-GAN的模型配置文件位于configs目录中。关于数据集配置,请根据你自己的数据集准备相应的数据集配置文件。

准备好配置文件后,你可以这样执行训练任务:

CONTAINER_PATH="/path/to/sif/friendly-stable-audio-tools.sif" ROOT_DIR="/path/to/friendly-stable-audio-tools/" DATASET_DIR="/path/to/your/dataset/" OUTPUT_DIR="/path/to/output/directory/" MODEL_CONFIG="stable_audio_tools/configs/model_configs/autoencoders/stable_audio_2_0_vae.json" DATASET_CONFIG="stable_audio_tools/configs/dataset_configs/local_training_example.json" BATCH_SIZE=10 # 警告:这是每个GPU的批量大小 WANDB_API_KEY="12345x6789y..." PORT=12345 # Singularity容器案例 # 注意:请根据需要修改各项配置 singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR -B $DATASET_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/train.py \ --dataset-config ${DATASET_CONFIG} \ --model-config ${MODEL_CONFIG} \ --name "vae_training" \ --num-gpus 8 \ --batch-size ${BATCH_SIZE} \ --num-workers 8 \ --save-dir ${OUTPUT_DIR}

模型解包

解包模型部分所述, 完成VAE训练后, 你需要解包模型检查点以用于下一阶段的训练。

CKPT_PATH="/path/to/wrapped_ckpt/last.ckpt" # 注意:文件扩展名".ckpt"将自动添加到OUTPUT_DIR名称的末尾 OUTPUT_PATH="/path/to/output_name/unwrapped_last" singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/unwrap_model.py \ --model-config ${MODEL_CONFIG} \ --ckpt-path ${CKPT_PATH} \ --name ${OUTPUT_PATH}

重构测试

完成VAE训练后,你可能想要测试和评估训练模型的重构质量。

我支持使用reconstruct_audios.py对目录中的音频文件进行重构, 你可以使用重构后的音频进行评估。

AUDIO_DIR="/path/to/original_audio/" OUTPUT_DIR="/path/to/output_audio/" FRAME_DURATION=1.0 # [秒] OVERLAP_RATE=0.01 BATCH_SIZE=50 singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR -B $DATASET_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/reconstruct_audios.py \ --model-config ${MODEL_CONFIG} \ --ckpt-path ${UNWRAP_CKPT_PATH} \ --audio-dir ${AUDIO_DIR} \ --output-dir ${OUTPUT_DIR} \ --frame-duration ${FRAME_DURATION} \ --overlap-rate ${OVERLAP_RATE} \ --batch-size ${BATCH_SIZE}

第二阶段:扩散变换器(DiT)

训练

作为Stable Audio 2.0的第二阶段,你将训练一个DiT,这是一个潜在域中的生成模型。

在这一部分之前,请确保

  • 你已满足所有先决条件
  • 你已经训练了VAE模型并创建了解包后的检查点文件(参见VAE部分)

现在,你可以按如下方式训练DiT模型:

CONTAINER_PATH="/path/to/sif/friendly-stable-audio-tools.sif" ROOT_DIR="/path/to/friendly-stable-audio-tools/" DATASET_DIR="/path/to/your/dataset/" OUTPUT_DIR="/path/to/output/directory/" MODEL_CONFIG="stable_audio_tools/configs/model_configs/txt2audio/stable_audio_2_0.json" DATASET_CONFIG="stable_audio_tools/configs/dataset_configs/local_training_example.json" # VAE(第一阶段)模型的预训练检查点 PRETRANSFORM_CKPT="/path/to/vae_ckpt/unwrapped_last.ckpt" BATCH_SIZE=10 # 警告:这是每个GPU的批量大小 WANDB_API_KEY="12345x6789y..." PORT=12345 singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR -B $DATASET_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/train.py \ --dataset-config ${DATASET_CONFIG} \ --model-config ${MODEL_CONFIG} \ --pretransform-ckpt-path ${PRETRANSFORM_CKPT} \ --name "dit_training" \ --num-gpus ${NUM_GPUS} \ --batch-size ${BATCH_SIZE} \ --save-dir ${OUTPUT_DIR}

待办事项

  • 添加便捷的采样脚本
  • 增加更多音频增强功能
  • 为Gradio界面添加文档
  • 添加故障排除部分
  • 添加贡献指南

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多