🚀 🎹 说话人分割
本项目基于 pyannote.audio 2.0
实现说话人分割功能,能够有效识别音频中的不同说话人。它可以自动处理音频,无需手动进行语音活动检测、指定说话人数量或对内部模型进行微调。
🚀 快速开始
本项目依赖于 pyannote.audio 2.0
,请参考 安装说明 进行安装。
💻 使用示例
基础用法
from pyannote.audio import Pipeline
pipeline = Pipeline.from_pretrained("pyannote/speaker-diarization@2022.07")
diarization = pipeline("audio.wav")
with open("audio.rttm", "w") as rttm:
diarization.write_rttm(rttm)
高级用法
如果事先知道说话人的数量,可以在参数字典中包含 num_speakers
参数:
handler = EndpointHandler()
diarization = handler({"inputs": base64_audio, "parameters": {"num_speakers": 2}})
也可以使用 min_speakers
和 max_speakers
参数提供说话人数量的下限和/或上限:
handler = EndpointHandler()
diarization = handler({"inputs": base64_audio, "parameters": {"min_speakers": 2, "max_speakers": 5}})
如果您想进行更多尝试,可以试验各种管道超参数。例如,可以通过增加 segmentation_onset
阈值的值来使用更激进的语音活动检测:
hparams = handler.pipeline.parameters(instantiated=True)
hparams["segmentation_onset"] += 0.1
handler.pipeline.instantiate(hparams)
要应用更新后的处理程序进行可以处理说话人数量的 API 推理,请使用以下代码:
from typing import Dict
from pyannote.audio import Pipeline
import torch
import base64
import numpy as np
SAMPLE_RATE = 16000
class EndpointHandler():
def __init__(self, path=""):
self.pipeline = Pipeline.from_pretrained("KIFF/pyannote-speaker-diarization-endpoint")
def __call__(self, data: Dict[str, bytes]) -> Dict[str, str]:
"""
Args:
data (:obj:):
包含反序列化后的音频文件字节
Return:
A :obj:`dict`:. base64 编码的图像
"""
inputs = data.pop("inputs", data)
parameters = data.pop("parameters", None)
audio_data = base64.b64decode(inputs)
audio_nparray = np.frombuffer(audio_data, dtype=np.int16)
audio_tensor= torch.from_numpy(audio_nparray).float().unsqueeze(0)
pyannote_input = {"waveform": audio_tensor, "sample_rate": SAMPLE_RATE}
if parameters is not None:
diarization = self.pipeline(pyannote_input, **parameters)
else:
diarization = self.pipeline(pyannote_input)
processed_diarization = [
{"label": str(label), "start": str(segment.start), "stop": str(segment.end)}
for segment, _, label in diarization.itertracks(yield_label=True)
]
return {"diarization": processed_diarization}
🔧 技术细节
实时因子
使用一块 Nvidia Tesla V100 SXM2 GPU(用于神经推理部分)和一块 Intel Cascade Lake 6248 CPU(用于聚类部分)时,实时因子约为 5%。
换句话说,处理一小时的对话大约需要 3 分钟。
准确性
该管道在不断增加的数据集上进行了基准测试。
处理过程完全自动化:
- 无需手动进行语音活动检测(文献中有时会这样做)
- 无需手动指定说话人数量(尽管可以将其提供给管道)
- 无需对内部模型进行微调,也无需针对每个数据集调整管道超参数
... 采用最严格的说话人分割错误率(DER)设置(在 本文 中称为 "Full"):
📚 详细文档
📄 许可证
本项目采用 MIT 许可证。
📚 引用
@inproceedings{Bredin2021,
Title = {{End-to-end speaker segmentation for overlap-aware resegmentation}},
Author = {{Bredin}, Herv{\'e} and {Laurent}, Antoine},
Booktitle = {Proc. Interspeech 2021},
Address = {Brno, Czech Republic},
Month = {August},
Year = {2021},
}
@inproceedings{Bredin2020,
Title = {{pyannote.audio: neural building blocks for speaker diarization}},
Author = {{Bredin}, Herv{\'e} and {Yin}, Ruiqing and {Coria}, Juan Manuel and {Gelly}, Gregory and {Korshunov}, Pavel and {Lavechin}, Marvin and {Fustes}, Diego and {Titeux}, Hadrien and {Bouaziz}, Wassim and {Gill}, Marie-Philippe},
Booktitle = {ICASSP 2020, IEEE International Conference on Acoustics, Speech, and Signal Processing},
Address = {Barcelona, Spain},
Month = {May},
Year = {2020},
}