先进音乐源分离技术的开源实现
BS-RoFormer是一个开源的音乐源分离项目,实现了先进的注意力网络技术。该项目采用跨频率和时间的轴向注意力以及旋转位置编码,显著提高了分离效果。支持立体声训练和多声部输出,为音乐处理领域带来新的可能。项目提供了详细的使用说明和应用案例,适合研究者和开发者使用。
<img src="https://yellow-cdn.veclightyear.com/0a4dffa0/b5714418-b0d6-4c75-b40a-5a1043192d70.png" width="450px"></img>
实现了<a href="https://arxiv.org/abs/2309.02612">Band Split Roformer</a>,这是字节跳动AI实验室开发的音乐源分离最先进的注意力网络。他们大幅超越了之前的第一名。该技术在频率(因此是多频带)和时间上使用轴向注意力。他们还进行了实验,证明旋转位置编码比学习绝对位置带来了巨大的改进。
它还支持立体声训练和输出多个音轨。
如果你有兴趣在公开场合复现最先进的音乐源分离器,请加入<a href="https://discord.gg/xBPBXfcFHd"><img alt="加入我们的Discord" src="https://img.shields.io/discord/823813159592001537?color=5865F2&logo=discord&logoColor=white"></a>
更新:这篇论文已被<a href="https://github.com/ZFTurbo">Roman</a>复现,权重已在<a href="https://github.com/ZFTurbo/Music-Source-Separation-Training?tab=readme-ov-file#vocal-models">这里</a>开源
更新2:用于<a href="https://www.youtube.com/watch?v=rboAdham380">这个凯蒂·佩里的混音!</a>
更新3:<a href="https://github.com/KimberleyJensen">Kimberley Jensen</a>已在<a href="https://github.com/KimberleyJensen/Mel-Band-Roformer-Vocal-Model">这里</a>开源了一个经过人声训练的MelBand Roformer!
感谢<a href="https://stability.ai/">StabilityAI</a>和<a href="https://huggingface.co/">🤗 Huggingface</a>的慷慨赞助,以及我的其他赞助商,让我能够独立地开源人工智能。
感谢<a href="https://github.com/shenberg">Roee</a>和<a href="https://github.com/faroit">Fabian-Robert</a>分享他们的音频专业知识并修复音频超参数
感谢<a href="https://github.com/chenht2010">@chenht2010</a>和<a href="https://github.com/ZFTurbo">Roman</a>解决了默认频带分割超参数的问题!
感谢<a href="https://github.com/dorpxam">Max Prod</a>报告了Mel-Band Roformer在立体声训练中的一个重大bug!
感谢<a href="https://github.com/ZFTurbo">Roman</a>成功训练了模型并在<a href="https://github.com/ZFTurbo/Music-Source-Separation-Training">这个仓库</a>中开源了他的训练代码和权重!
感谢<a href="https://github.com/crlandsc">Christopher</a>修复了Mel-Band Roformer中多个音轨的问题
感谢<a href="https://github.com/iver56">Iver Jordal</a>发现默认的stft窗口函数不正确
$ pip install BS-RoFormer
import torch from bs_roformer import BSRoformer model = BSRoformer( dim = 512, depth = 12, time_transformer_depth = 1, freq_transformer_depth = 1 ) x = torch.randn(2, 352800) target = torch.randn(2, 352800) loss = model(x, target = target) loss.backward() # 经过大量训练后 out = model(x)
要使用<a href="https://arxiv.org/abs/2310.01809">最近一篇后续论文</a>中提出的Mel-Band Roformer,只需导入MelBandRoformer
即可
import torch from bs_roformer import MelBandRoformer model = MelBandRoformer( dim = 32, depth = 1, time_transformer_depth = 1, freq_transformer_depth = 1 ) x = torch.randn(2, 352800) target = torch.randn(2, 352800)
loss = model(x, target = target) loss.backward()
out = model(x)
## 待办事项
- [x] 加入多尺度短时傅里叶变换损失
- [x] 确定`n_fft`应该是多少
- [x] 审查频带分割和掩模估计模块
## 引用
```bibtex
@inproceedings{Lu2023MusicSS,
title = {基于频带分割RoPE Transformer的音乐源分离},
author = {卢韦宗 and 王巨江 and 孔秋强 and 洪韵宁},
year = {2023},
url = {https://api.semanticscholar.org/CorpusID:261556702}
}
@inproceedings{Wang2023MelBandRF, title = {用于音乐源分离的梅尔频带RoFormer}, author = {王巨江 and 卢韦宗 and Minz Won}, year = {2023}, url = {https://api.semanticscholar.org/CorpusID:263608675} }
@misc{ho2019axial, title = {多维Transformer中的轴向注意力}, author = {Jonathan Ho and Nal Kalchbrenner and Dirk Weissenborn and Tim Salimans}, year = {2019}, archivePrefix = {arXiv} }
@misc{su2021roformer, title = {RoFormer:具有旋转位置嵌入的增强型Transformer}, author = {苏剑林 and 陆宇 and 潘胜峰 and 文博 and 刘云峰}, year = {2021}, eprint = {2104.09864}, archivePrefix = {arXiv}, primaryClass = {cs.CL} }
@inproceedings{dao2022flashattention, title = {Flash{A}ttention:具有{IO}感知的快速且内存高效的精确注意力}, author = {Dao, Tri and Fu, Daniel Y. and Ermon, Stefano and Rudra, Atri and R{\'e}, Christopher}, booktitle = {神经信息处理系统进展}, year = {2022} }
@article{Bondarenko2023QuantizableTR, title = {可量化的Transformer:通过帮助注意力头什么都不做来消除异常值}, author = {Yelysei Bondarenko and Markus Nagel and Tijmen Blankevoort}, journal = {ArXiv}, year = {2023}, volume = {abs/2306.12929}, url = {https://api.semanticscholar.org/CorpusID:259224568} }
@inproceedings{ElNouby2021XCiTCI, title = {XCiT:交叉协方差图像Transformer}, author = {Alaaeldin El-Nouby and Hugo Touvron and Mathilde Caron and Piotr Bojanowski and Matthijs Douze and Armand Joulin and Ivan Laptev and Natalia Neverova and Gabriel Synnaeve and Jakob Verbeek and Herv{\'e} J{\'e}gou}, booktitle = {神经信息处理系统}, year = {2021}, url = {https://api.semanticscholar.org/CorpusID:235458262} }
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。