diart

diart

Python实时音频处理框架 支持说话人分离和语音活动检测

diart是一个开源的Python实时音频处理框架,专注于AI驱动的音频应用开发。其核心功能包括实时说话人分离、语音活动检测和增量聚类。该框架集成了说话人分段和嵌入模型,支持自定义AI流程、基准测试和超参数优化。diart还提供WebSocket接口,方便进行Web服务部署。

实时音频处理说话人分类AI模型PythondiartGithub开源项目
<p align="center"> <img width="100%" src="https://yellow-cdn.veclightyear.com/835a84d5/e5fb634b-b3ab-4b32-b78a-77ad7abae57d.jpg?raw=true" title="diart标志" /> </p> <p align="center"> <i>🌿 轻松构建基于AI的实时音频应用 🌿</i> </p> <p align="center"> <img alt="PyPI版本" src="https://img.shields.io/pypi/v/diart?color=g"> <img alt="PyPI下载量" src="https://static.pepy.tech/personalized-badge/diart?period=total&units=international_system&left_color=grey&right_color=brightgreen&left_text=下载量"> <img alt="Python版本" src="https://img.shields.io/badge/python-3.8%20%7C%203.9%20%7C%203.10-dark_green"> <img alt="代码大小(字节)" src="https://img.shields.io/github/languages/code-size/juanmc2005/StreamingSpeakerDiarization?color=g"> <img alt="许可证" src="https://img.shields.io/github/license/juanmc2005/StreamingSpeakerDiarization?color=g"> <a href="https://joss.theoj.org/papers/cc9807c6de75ea4c29025c7bd0d31996"><img src="https://yellow-cdn.veclightyear.com/835a84d5/4bf1e52d-5b52-4aae-bbc9-7b3cd88d6c52.svg"></a> </p> <div align="center"> <h4> <a href="#-installation"> 💾 安装 </a> <span> | </span> <a href="#%EF%B8%8F-stream-audio"> 🎙️ 音频流 </a> <span> | </span> <a href="#-models"> 🧠 模型 </a> <br /> <a href="#-tune-hyper-parameters"> 📈 调优 </a> <span> | </span> <a href="#-build-pipelines"> 🧠🔗 流水线 </a> <span> | </span> <a href="#-websockets"> 🌐 WebSocket </a> <span> | </span> <a href="#-powered-by-research"> 🔬 研究支持 </a> </h4> </div> <br/> <p align="center"> <img width="100%" src="https://yellow-cdn.veclightyear.com/835a84d5/b118eaf7-be37-431f-96d9-b8f4baf51795.gif?raw=true" title="实时说话人分类示例" /> </p>

⚡ 快速介绍

Diart是一个用于构建基于AI的实时音频应用的Python框架。其主要特点是能够以最先进的性能实时识别不同的说话人,这项任务通常被称为"说话人分类"。

diart.SpeakerDiarization流水线结合了说话人分割和说话人嵌入模型,为增量聚类算法提供支持,随着对话的进行,其准确性不断提高:

<p align="center"> <img width="100%" src="https://yellow-cdn.veclightyear.com/835a84d5/5480bcde-8f51-40d3-ade4-bf02cc42514f.gif?raw=true" title="实时说话人分类流水线" /> </p>

使用diart,您还可以创建自定义AI流水线、对其进行基准测试、调整超参数,甚至使用WebSocket在网络上提供服务。

我们提供以下预训练流水线:

  • 说话人分类
  • 语音活动检测
  • 转录(即将推出)
  • 说话人感知转录(即将推出)

💾 安装

1) 确保您的系统具备以下依赖项:

ffmpeg < 4.4
portaudio == 19.6.X
libsndfile >= 1.2.2

或者,我们提供了一个environment.yml文件用于预配置的conda环境:

conda env create -f diart/environment.yml conda activate diart

2) 安装软件包:

pip install diart

获取 🎹 pyannote模型的访问权限

默认情况下,diart基于huggingface hub上的pyannote.audio模型。要使用这些模型,请按以下步骤操作:

  1. 接受pyannote/segmentation模型的用户条款
  2. 接受最新的pyannote/segmentation-3.0模型的用户条款
  3. 接受pyannote/embedding模型的用户条款
  4. 安装huggingface-cli并使用您的用户访问令牌登录(或在diart CLI或API中手动提供)

🎙️ 音频流

从命令行

录制的对话:

diart.stream /path/to/audio.wav

实时对话:

# 使用"microphone:ID"选择非默认设备 # 查看`python -m sounddevice`获取可用设备 diart.stream microphone

默认情况下,diart运行说话人分类流水线,相当于设置--pipeline SpeakerDiarization,但您也可以将其设置为--pipeline VoiceActivityDetection。更多选项请参见diart.stream -h

从Python

使用StreamingInference在音频源上运行流水线并将结果写入磁盘:

from diart import SpeakerDiarization from diart.sources import MicrophoneAudioSource from diart.inference import StreamingInference from diart.sinks import RTTMWriter pipeline = SpeakerDiarization() mic = MicrophoneAudioSource() inference = StreamingInference(pipeline, mic, do_plot=True) inference.attach_observers(RTTMWriter(mic.uri, "/output/file.rttm")) prediction = inference()

对于数据集的推理和评估,我们建议使用Benchmark(参见关于可重复性的说明)。

🧠 模型

您可以使用--segmentation--embedding参数来使用其他模型。 或在Python中:

import diart.models as m segmentation = m.SegmentationModel.from_pretrained("model_name") embedding = m.EmbeddingModel.from_pretrained("model_name")

预训练模型

以下是diart当前支持的所有模型列表:

模型名称模型类型CPU时间*GPU时间*
🤗 pyannote/segmentation (默认)分割12ms8ms
🤗 pyannote/segmentation-3.0分割11ms8ms
🤗 pyannote/embedding (默认)嵌入26ms12ms
🤗 hbredin/wespeaker-voxceleb-resnet34-LM (ONNX)嵌入48ms15ms
🤗 pyannote/wespeaker-voxceleb-resnet34-LM (PyTorch)嵌入150ms29ms
🤗 speechbrain/spkrec-xvect-voxceleb嵌入41ms15ms
🤗 speechbrain/spkrec-ecapa-voxceleb嵌入41ms14ms
🤗 speechbrain/spkrec-ecapa-voxceleb-mel-spec嵌入42ms14ms
🤗 speechbrain/spkrec-resnet-voxceleb嵌入41ms16ms
🤗 nvidia/speakerverification_en_titanet_large嵌入91ms16ms

分割模型的延迟是在VAD流水线中测量的(5秒块)。

嵌入模型的延迟是在使用pyannote/segmentation的说话人分离流水线中测量的(同样是5秒块)。

* CPU: AMD Ryzen 9 - GPU: RTX 4060 Max-Q

自定义模型

可以通过提供加载器函数来集成第三方模型:

from diart import SpeakerDiarization, SpeakerDiarizationConfig from diart.models import EmbeddingModel, SegmentationModel def segmentation_loader(): # 它应该接收一个波形并返回一个分割张量 return load_pretrained_model("my_model.ckpt") def embedding_loader(): # 它应该接收(波形,权重)并返回每个说话人的嵌入 return load_pretrained_model("my_other_model.ckpt") segmentation = SegmentationModel(segmentation_loader) embedding = EmbeddingModel(embedding_loader) config = SpeakerDiarizationConfig( segmentation=segmentation, embedding=embedding, ) pipeline = SpeakerDiarization(config)

如果你有一个ONNX模型,你可以使用from_onnx()

from diart.models import EmbeddingModel embedding = EmbeddingModel.from_onnx( model_path="my_model.ckpt", input_names=["x", "w"], # 默认为 ["waveform", "weights"] output_name="output", # 默认为 "embedding" )

📈 调整超参数

Diart实现了一个基于optuna的优化器,允许你根据需要调整流水线的超参数。

从命令行

diart.tune /wav/dir --reference /rttm/dir --output /output/dir

使用diart.tune -h查看更多选项。

从Python

from diart.optim import Optimizer optimizer = Optimizer("/wav/dir", "/rttm/dir", "/output/dir") optimizer(num_iter=100)

这将把结果写入/output/dir中的sqlite数据库。

分布式调优

对于更大的数据集,有时并行运行多个优化进程更方便。 要做到这一点,请在推荐的DBMS(例如MySQL或PostgreSQL)上创建一个研究,确保研究和数据库名称匹配:

mysql -u root -e "CREATE DATABASE IF NOT EXISTS example" optuna create-study --study-name "example" --storage "mysql://root@localhost/example"

现在你可以运行多个指向这个数据库的相同优化器:

diart.tune /wav/dir --reference /rttm/dir --storage mysql://root@localhost/example

或在Python中:

from diart.optim import Optimizer from optuna.samplers import TPESampler import optuna db = "mysql://root@localhost/example" study = optuna.load_study("example", db, TPESampler()) optimizer = Optimizer("/wav/dir", "/rttm/dir", study) optimizer(num_iter=100)

🧠🔗 构建流水线

对于更高级的用法,diart还提供了可以组合以创建自己的流水线的构建块。 流式处理由RxPY提供支持,但blocks模块完全独立,可以单独使用。

示例

从麦克风流中获取考虑重叠的说话人嵌入:

import rx.operators as ops import diart.operators as dops from diart.sources import MicrophoneAudioSource from diart.blocks import SpeakerSegmentation, OverlapAwareSpeakerEmbedding segmentation = SpeakerSegmentation.from_pretrained("pyannote/segmentation") embedding = OverlapAwareSpeakerEmbedding.from_pretrained("pyannote/embedding") mic = MicrophoneAudioSource() stream = mic.stream.pipe( # 重新格式化流为5秒持续时间和500毫秒移动 dops.rearrange_audio_stream(sample_rate=segmentation.model.sample_rate), ops.map(lambda wav: (wav, segmentation(wav))), ops.starmap(embedding) ).subscribe(on_next=lambda emb: print(emb.shape)) mic.read()

输出:

# 形状为(批次大小,说话人数量,嵌入维度)
torch.Size([1, 3, 512])
torch.Size([1, 3, 512])
torch.Size([1, 3, 512])
...

🌐 WebSockets

Diart还兼容WebSocket协议,可以在网络上提供流水线服务。

从命令行

diart.serve --host 0.0.0.0 --port 7007 diart.client microphone --host <server-address> --port 7007

注意: 确保客户端使用与服务器相同的stepsample_rate,可以通过--step-sr设置。

使用-h查看更多选项。

从Python

对于自定义解决方案,也可以在Python中使用WebSocketAudioSource创建服务器:

from diart import SpeakerDiarization from diart.sources import WebSocketAudioSource from diart.inference import StreamingInference pipeline = SpeakerDiarization() source = WebSocketAudioSource(pipeline.config.sample_rate, "localhost", 7007) inference = StreamingInference(pipeline, source) inference.attach_hooks(lambda ann_wav: source.send(ann_wav[0].to_rttm())) prediction = inference()

🔬 由研究驱动

Diart是论文基于端到端局部分割的考虑重叠的低延迟在线说话人分离的官方实现, 作者为Juan Manuel CoriaHervé BredinSahar GhannaySophie Rosset

我们提出将在线说话人分类问题视为增量聚类和局部分类的结合,应用于每500毫秒更新一次的滚动缓冲区。提出的流程中的每一步都旨在充分利用最近提出的端到端重叠感知分割模型在检测和分离重叠说话人方面的强大能力。特别是,我们提出了统计池化层(最初在x-vector架构中引入)的修改版本,以降低分割模型预测同时说话人的帧的权重。此外,我们从初始分割步骤中导出不可链接约束,以防止两个局部说话人在增量聚类步骤中被错误合并。最后,我们展示了如何将所提出方法的延迟在500毫秒到5秒之间调整,以满足特定用例的要求,并系统分析了延迟对整体性能的影响(在AMI、DIHARD和VoxConverse数据集上)。

<p align="center"> <img height="400" src="https://yellow-cdn.veclightyear.com/835a84d5/31262508-0b72-40b7-97bb-0ecab21a04a4.png?raw=true" title="系统的可视化解释" width="325" /> </p>

引用

如果您发现diart有用,请务必引用我们的论文:

@inproceedings{diart, author={Coria, Juan M. and Bredin, Hervé and Ghannay, Sahar and Rosset, Sophie}, booktitle={2021 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU)}, title={Overlap-Aware Low-Latency Online Speaker Diarization Based on End-to-End Local Segmentation}, year={2021}, pages={1139-1146}, doi={10.1109/ASRU51503.2021.9688044}, }

可重复性

结果表

重要: 我们强烈建议安装 pyannote.audio<3.1 以复现这些结果。 更多信息,请参阅此问题

Diart 旨在轻量化并能够在实际场景中实现实时流式处理。 其性能与论文中报告的非常接近(有时甚至略好)。

为获得最佳结果,请确保使用以下超参数:

数据集延迟taurhodelta
DIHARD III任意0.5550.4221.517
AMI任意0.5070.0061.057
VoxConverse任意0.5760.9150.648
DIHARD II1秒0.6190.3260.997
DIHARD II5秒0.5550.4221.517

diart.benchmarkdiart.inference.Benchmark 可以运行、评估并测量流程的实时延迟。例如,对于 DIHARD III 配置:

diart.benchmark /wav/dir --reference /rttm/dir --tau-active=0.555 --rho-update=0.422 --delta-new=1.517 --segmentation pyannote/segmentation@Interspeech2021

或使用推理 API:

from diart.inference import Benchmark, Parallelize from diart import SpeakerDiarization, SpeakerDiarizationConfig from diart.models import SegmentationModel benchmark = Benchmark("/wav/dir", "/rttm/dir") model_name = "pyannote/segmentation@Interspeech2021" model = SegmentationModel.from_pretrained(model_name) config = SpeakerDiarizationConfig( # 设置论文中使用的分割模型 segmentation=model, step=0.5, latency=0.5, tau_active=0.555, rho_update=0.422, delta_new=1.517 ) benchmark(SpeakerDiarization, config) # 并行运行相同的基准测试 p_benchmark = Parallelize(benchmark, num_workers=4) if __name__ == "__main__": # 多进程需要 p_benchmark(SpeakerDiarization, config)

这会预先计算模型输出的批次,因此运行速度会快很多。 有关更多选项,请参阅 diart.benchmark -h

为方便起见并促进未来的比较,我们还提供了 <a href="https://github.com/juanmc2005/diart/tree/main/expected_outputs">论文实现的预期输出</a> ,以 RTTM 格式提供表 1 和图 5 中每个条目的结果。 这包括 VBx 离线基线以及我们提出的在线方法,延迟分别为 500 毫秒、1 秒、2 秒、3 秒、4 秒和 5 秒。

图 5

📑 许可证

MIT 许可证

版权所有 (c) 2021 巴黎-萨克雷大学
版权所有 (c) 2021 法国国家科学研究中心

特此免费授予任何获得本软件及相关文档文件("软件")副本的人不受限制地处理本软件的权利,
包括但不限于使用、复制、修改、合并、出版、发布、再许可和/或销售软件副本的权利,
以及允许向其提供软件的人这样做,但须符合以下条件:

上述版权声明和本许可声明应包含在本软件的所有副本或实质性部分中。

本软件按"原样"提供,不附带任何明示或暗示的担保,包括但不限于对适销性、特定用途适用性和
非侵权性的担保。在任何情况下,作者或版权持有人均不对任何索赔、损害或其他责任负责,
无论是在合同诉讼、侵权行为还是其他方面,由软件或软件的使用或其他交易引起、引起或与之相关。
<p style="color:grey;font-size:14px;">Logo 由 <a href="https://www.designevo.com/" title="免费在线 Logo 制作工具">DesignEvo 免费 logo 设计器</a> 生成</p>

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多