改进后的Stable Audio Tools开源框架支持音频生成模型训练和推理
该项目是对Stability AI的stable-audio-tools的重构和增强,提供了音频和音乐生成模型的开源代码。重构后的代码提高了可读性和易用性,并新增了评估和使用自训练模型的脚本。项目详细说明了如何训练Stable Audio 2.0等模型,并提供了Stable Audio Open 1.0的使用文档和便捷脚本。此外,项目支持多GPU/节点生成,并集成了Gradio界面用于测试模型。
本仓库是对 stable-audio-tools
的重构/更新版本,stable-audio-tools
是 Stability AI 最初开发的音频/音乐生成模型开源代码。
本仓库包含以下额外功能:
stable-audio-tools
的代码,提高了可读性和易用性。Stable Audio 2.0
等模型的说明。Stable Audio Open 1.0
提供了详细文档和便捷脚本。Stability AI 现已开源 Stable Audio 的预训练模型。
如果您对如何使用 Stable Audio Open 感兴趣,请参阅以下文档以获取详细说明。
要运行训练脚本或推理代码,您需要克隆此仓库,导航到根目录,然后执行以下 pip
命令:
$ git clone https://github.com/yukara-ikemiya/friendly-stable-audio-tools.git $ cd friendly-stable-audio-tools $ pip install . $ # 为避免 Accelerate 导入错误,您可能需要执行以下命令 $ pip uninstall -y transformer-engine
为简化训练环境的设置,我建议使用 Docker
或 Singularity
等容器系统,而不是在每台 GPU 机器上安装依赖项。以下是创建 Docker 和 Singularity 容器的步骤。
所有示例脚本都存储在 container 文件夹中。
请确保事先安装了 Docker 和 Singularity。
$ # 创建 Docker 镜像 $ NAME=friendly-stable-audio-tools $ docker build -t ${NAME} -f ./container/${NAME}.Dockerfile .
$ # 将 Docker 镜像转换为 Singularity 容器 $ singularity build friendly-stable-audio-tools.sif docker-daemon://friendly-stable-audio-tools
运行上述脚本后,应在工作目录中创建 friendly-stable-audio-tools.sif
。
提供了一个基本的 Gradio 界面来测试训练好的模型。
例如,要为 stable-audio-open-1.0
模型创建界面,一旦您在 Hugging Face 上接受了模型条款,您可以运行:
$ python3 ./run_gradio.py --pretrained-name stabilityai/stable-audio-open-1.0
如果您需要关于 Stable Audio Open
的更详细说明,我建议参考 Stable Audio Open
文档中的 Gradio 界面 部分。
run_gradio.py
脚本接受以下命令行参数:
--pretrained-name
PRETRAINED_NAME(可选)
stabilityai/stable-audio-open-1.0
)model.safetensors
而非 model.ckpt
model-config
和 ckpt-path
。--model-config
MODEL_CONFIG(可选)
--ckpt-path
CKPT_PATH(可选)
--pretransform-ckpt-path
PRETRANSFORM_CKPT_PATH(可选)
--username
USERNAME / --password
PASSWORD(可选)
--model-half
(可选)
--tmp-dir
TMP_DIR(可选)
训练代码还需要一个 Weights & Biases 账户来记录训练输出和演示。创建账户并使用以下命令登录:
$ wandb login
或者您也可以通过环境变量 WANDB_API_KEY
传递 API 密钥。
(登录账户后,您可以从 https://wandb.ai/authorize 获取 API 密钥。)
$ WANDB_API_KEY="12345x6789y..."
当您想使用 Docker 或 Singularity 等容器执行代码时,这种方法很方便。
在开始训练之前,您需要准备以下两个配置文件。
有关这些文件的更多信息,请参阅下面的配置部分。
要开始训练,请在仓库根目录中运行 train.py
脚本:
$ python3 train.py --dataset-config /path/to/dataset/config --model-config /path/to/model/config --name my_experiment
--name
参数将设置您的 Weights and Biases 运行的项目名称。
微调涉及从预训练检查点恢复训练运行。
--ckpt-path
标志将检查点路径 (.ckpt) 传递给 train.py
。--pretrained-ckpt-path
标志将未包装的检查点路径 (.ckpt) 传递给 train.py
。stable-audio-tools
使用 PyTorch Lightning 来实现多 GPU 和多节点训练。
当模型正在训练时,它被包装在一个"训练包装器"中,这是一个包含所有仅用于训练的相关对象的 pl.LightningModule
。这包括自动编码器的判别器、模型的 EMA 副本以及所有优化器状态等内容。
训练期间创建的检查点文件包括这个训练包装器,这大大增加了检查点文件的大小。
unwrap_model.py
接收一个包装的模型检查点,并保存一个仅包含模型本身的新检查点文件。
可以从存储库根目录运行以下命令:
$ python3 unwrap_model.py --model-config /path/to/model/config --ckpt-path /path/to/wrapped/ckpt.ckpt --name /new/path/to/new_ckpt_name
未包装的模型检查点是以下情况所必需的:
stable-audio-tools
的训练和推理代码基于 JSON 配置文件,这些文件定义了模型超参数、训练设置和有关训练数据集的信息。
模型配置文件定义了加载模型进行训练或推理所需的所有信息。它还包含微调模型或从头开始训练所需的训练配置。
模型配置的顶层定义了以下属性:
model_type
"autoencoder", "diffusion_uncond", "diffusion_cond", "diffusion_cond_inpaint", "diffusion_autoencoder", "lm"
之一。sample_size
sample_rate
audio_channels
model
model_type
而变化。training
model_type
而变化。提供训练参数以及演示。stable-audio-tools
目前支持两种数据源:本地音频文件目录和存储在 Amazon S3 中的 WebDataset 数据集。更多信息可以在数据集配置文档中找到。
train.py
的其他可选标志包括:
--config-file
train.py
,则需要此标志。--pretransform-ckpt-path
--save-dir
--checkpoint-every
--batch-size
--num-gpus
--num-nodes
--accum-batches
--strategy
deepspeed
将启用 DeepSpeed ZeRO Stage 2。--num_gpus
> 1,则为 ddp
,否则为 None--precision
--num-workers
--seed
Stable Audio 2.0
要使用 CLAP 编码器进行音乐生成的条件控制,您必须准备 CLAP 的预训练检查点文件。
music_audioset_epoch_15_esc_90.14.pt
)。模型配置
文件= stable_audio_2_0.json =
... "model": { ... "conditioning": { "configs": [ { ... "config": { ... "clap_ckpt_path": "ckpt/clap/music_audioset_epoch_15_esc_90.14.pt", ...
由于 Stable Audio 使用文本提示作为音乐生成的条件,因此除了音频数据之外,您还必须准备它们作为元数据。
在本地环境中使用数据集时,我建议使用以下 JSON 格式的元数据。
prompt
的文本数据,这是 Stable Audio 训练所需的。
= music_2.json ={
"prompt": "这是一首传递正能量的电子音乐。"
}
.
└── dataset/
├── music_1.wav
├── music_1.json
├── music_2.wav
├── music_2.json
└── ...
作为Stable Audio 2.0的第一阶段,你将训练一个VAE-GAN,这是一个音频信号的压缩模型。
VAE-GAN的模型配置文件位于configs目录中。关于数据集配置,请根据你自己的数据集准备相应的数据集配置文件。
准备好配置文件后,你可以这样执行训练任务:
CONTAINER_PATH="/path/to/sif/friendly-stable-audio-tools.sif" ROOT_DIR="/path/to/friendly-stable-audio-tools/" DATASET_DIR="/path/to/your/dataset/" OUTPUT_DIR="/path/to/output/directory/" MODEL_CONFIG="stable_audio_tools/configs/model_configs/autoencoders/stable_audio_2_0_vae.json" DATASET_CONFIG="stable_audio_tools/configs/dataset_configs/local_training_example.json" BATCH_SIZE=10 # 警告:这是每个GPU的批量大小 WANDB_API_KEY="12345x6789y..." PORT=12345 # Singularity容器案例 # 注意:请根据需要修改各项配置 singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR -B $DATASET_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/train.py \ --dataset-config ${DATASET_CONFIG} \ --model-config ${MODEL_CONFIG} \ --name "vae_training" \ --num-gpus 8 \ --batch-size ${BATCH_SIZE} \ --num-workers 8 \ --save-dir ${OUTPUT_DIR}
如解包模型部分所述, 完成VAE训练后, 你需要解包模型检查点以用于下一阶段的训练。
CKPT_PATH="/path/to/wrapped_ckpt/last.ckpt" # 注意:文件扩展名".ckpt"将自动添加到OUTPUT_DIR名称的末尾 OUTPUT_PATH="/path/to/output_name/unwrapped_last" singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/unwrap_model.py \ --model-config ${MODEL_CONFIG} \ --ckpt-path ${CKPT_PATH} \ --name ${OUTPUT_PATH}
完成VAE训练后,你可能想要测试和评估训练模型的重构质量。
我支持使用reconstruct_audios.py
对目录中的音频文件进行重构,
你可以使用重构后的音频进行评估。
AUDIO_DIR="/path/to/original_audio/" OUTPUT_DIR="/path/to/output_audio/" FRAME_DURATION=1.0 # [秒] OVERLAP_RATE=0.01 BATCH_SIZE=50 singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR -B $DATASET_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/reconstruct_audios.py \ --model-config ${MODEL_CONFIG} \ --ckpt-path ${UNWRAP_CKPT_PATH} \ --audio-dir ${AUDIO_DIR} \ --output-dir ${OUTPUT_DIR} \ --frame-duration ${FRAME_DURATION} \ --overlap-rate ${OVERLAP_RATE} \ --batch-size ${BATCH_SIZE}
作为Stable Audio 2.0的第二阶段,你将训练一个DiT,这是一个潜在域中的生成模型。
在这一部分之前,请确保
现在,你可以按如下方式训练DiT模型:
CONTAINER_PATH="/path/to/sif/friendly-stable-audio-tools.sif" ROOT_DIR="/path/to/friendly-stable-audio-tools/" DATASET_DIR="/path/to/your/dataset/" OUTPUT_DIR="/path/to/output/directory/" MODEL_CONFIG="stable_audio_tools/configs/model_configs/txt2audio/stable_audio_2_0.json" DATASET_CONFIG="stable_audio_tools/configs/dataset_configs/local_training_example.json" # VAE(第一阶段)模型的预训练检查点 PRETRANSFORM_CKPT="/path/to/vae_ckpt/unwrapped_last.ckpt" BATCH_SIZE=10 # 警告:这是每个GPU的批量大小 WANDB_API_KEY="12345x6789y..." PORT=12345 singularity exec --nv --pwd $ROOT_DIR -B $ROOT_DIR -B $DATASET_DIR \ --env WANDB_API_KEY=$WANDB_API_KEY \ ${CONTAINER_PATH} \ torchrun --nproc_per_node gpu --master_port ${PORT} \ ${ROOT_DIR}/train.py \ --dataset-config ${DATASET_CONFIG} \ --model-config ${MODEL_CONFIG} \ --pretransform-ckpt-path ${PRETRANSFORM_CKPT} \ --name "dit_training" \ --num-gpus ${NUM_GPUS} \ --batch-size ${BATCH_SIZE} \ --save-dir ${OUTPUT_DIR}
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。