标准化Frechet音频距离计算工具
fadtk是一个计算Frechet音频 距离(FAD)的标准化工具库。它支持多种音频嵌入模型,能高效计算音频嵌入和FAD∞分数。该工具提供预计算统计数据用于基线比较,可计算单曲FAD以识别异常。fadtk主要用于评估生成音乐质量,为音频研究提供了实用灵活的解决方案。
一个简单且标准化的Frechet音频距离(FAD)计算库。该库随论文《适应Frechet音频距离用于生成音乐评估》(IEEE、arXiv)一起发布。与该论文相关的数据集和论文中使用的示例代码工具也可在此仓库中获得。
您可以在此在线演示中收听每首歌曲FAD异常值的音频样本:https://fadtk.hydev.org/
模型 | FADtk中的名称 | 描述 | 创建者 |
---|---|---|---|
CLAP | clap-2023 | 从自然语言监督中学习音频概念 | 微软 |
CLAP | clap-laion-{audio/music} | 对比语言-音频预训练 | LAION |
Encodec | encodec-emb | 最先进的基于深度学习的音频编解码器 | Facebook/Meta研究 |
MERT | MERT-v1-95M-{layer} | 具有大规模自监督训练的声学音乐理解模型 | m-a-p |
VGGish | vggish | 音频特征分类嵌入 | 谷歌 |
DAC | dac-44kHz | 使用改进的RVQGAN的高保真音频压缩 | Descript |
CDPAM | cdpam-{acoustic/content} | 基于对比学习的深度感知音频度量 | Pranay Manocha等 |
Wav2vec 2.0 | w2v2-{base/large} | Wav2vec 2.0:自监督语音表示学习框架 | Facebook/Meta研究 |
HuBERT | hubert-{base/large} | HuBERT:通过隐藏单元的掩蔽预测进行自监督语音表示学习 | Facebook/Meta研究 |
WavLM | wavlm-{base/base-plus/large} | WavLM:用于全栈语音处理的大规模自监督预训练 | 微软 |
Whisper | whisper-{tiny/base/small/medium/large} | 通过大规模弱监督实现强大的语音识别 | OpenAI |
要使用FAD工具包,您必须首先安装它。该库在Linux上的Python 3.11环境下创建和测试,但应该也可以在Python >3.9以及Windows和macOS上运行。
pip install fadtk
为确保环境设置正确并且一切按预期工作,建议在安装后使用命令python -m fadtk.test
运行我们的测试。
您可以选择安装添加额外嵌入支持的依赖项。它们是:
pip install cdpam
pip install descript-audio-codec==1.0.0
# 评估 fadtk <模型名称> <基线> <评估集> [--inf/--indiv] # 计算嵌入 fadtk.embeds -m <模型...> -d <数据集...>
# 使用两种不同模型计算基线和评估数据集之间的FAD-inf fadtk clap-laion-audio fma_pop /path/to/evaluation/audio --inf fadtk encodec-emb fma_pop /path/to/evaluation/audio --inf
fadtk encodec-emb fma_pop /path/to/evaluation/audio --indiv scores.csv
首先,创建两个目录,一个用于基线,一个用于评估,并将音频文件放入其中。然后,运行以下命令:
# 计算基线和评估数据集之间的FAD fadtk clap-laion-audio /path/to/baseline/audio /path/to/evaluation/audio
如果您只想使用特定模型列表为一系列数据集计算嵌入,可以使用命令行完成。
fadtk.embeds -m 模型1 模型2 -d /数据集1 /数据集2
使用FAD工具包计算FAD分数时,考虑以下最佳实践至关重要,以确保报告结果的准确性和相关性。
通过遵循这些最佳实践,可以确保我们的FAD工具包的使用在方法上既合理又与上下文相关。
如果您想了解如何在Python中执行上述命令行过程,可以查看我们的启动器是如何实现的(__main__.py和embeds.py)
要添加新的嵌入模型,你只需要修改 model_loader.py 文件。你必须创建一个继承自 ModelLoader 类的新类。你需要实现构造函数、load_model
和 _get_embedding
函数。你可以从以下模板开始:
class YourModel(ModelLoader): """ 在这里添加你的模型的简短描述。 """ def __init__(self): # 在这里定义你的采样率和特征数量。音频将自动重采样到这个采样率。 super().__init__("模型名称包括变体", num_features=128, sr=16000) # 在这里添加你需要的任何其他变量 def load_model(self): # 在这里加载你的模型 pass def _get_embedding(self, audio: np.ndarray) -> np.ndarray: # 使用你的模型计算嵌入 return np.zeros((1, self.num_features)) def load_wav(self, wav_file: Path): # 可选地,你可以重写这个方法以不同的方式加载wav文件。输入的wav_file已经是构造函数中指定的正确采样率。 return super().load_wav(wav_file)
我们还在这个仓库中包含了一些来自论文的示例代码和数据。
musiccaps-public-openai.csv:这个文件包含原始 MusicCaps 歌曲 ID 和说明,以及 GPT4 对其质量的标签和用于音乐生成的 GPT4 精炼提示。
fma_pop_tracks.csv:这个文件包含我们在论文中提出的 FMA-Pop 子集的 4839 个歌曲 ID 和元数据信息。从原始来源下载免费音乐档案数据集后,你可以使用歌曲 ID 轻松找到这个 FMA-Pop 子集的音频文件。
我们用于创建 GPT4 一次性提示以生成精炼 MusicCaps 提示和从 MusicCaps 说明中分类质量的方法可以在 example/prompts 中找到。
此工具包中的代码采用 MIT 许可证。如果这个仓库在你的项目中有所帮助,请引用我们的工作。
@inproceedings{fadtk, title = {Adapting Frechet Audio Distance for Generative Music Evaluation}, author = {Azalea Gui, Hannes Gamper, Sebastian Braun, Dimitra Emmanouilidou}, booktitle = {Proc. IEEE ICASSP 2024}, year = {2024}, url = {https://arxiv.org/abs/2311.01616}, }
如果你使用 FMA-Pop 作为你的 FAD 评分基准,请同时引用 FMA(免费音乐档案)数据集。
@inproceedings{fma_dataset, title = {{FMA}: A Dataset for Music Analysis}, author = {Defferrard, Micha\"el and Benzi, Kirell and Vandergheynst, Pierre and Bresson, Xavier}, booktitle = {18th International Society for Music Information Retrieval Conference (ISMIR)}, year = {2017}, archiveprefix = {arXiv}, eprint = {1612.01840}, url = {https://arxiv.org/abs/1612.01840}, }
对基础仓库 gudgud96/frechet-audio-distance - "一个用于 Frechet 音频距离计算的轻量级库" 表示深深的感谢。我们项目的大部分内容都是从 gudgud96 的贡献中改编和增强的。为了表彰这项工作,我们保留了原始 MIT 许可证。
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成 文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号