🚀 pyannote.audio // 說話人分割
本項目是一個用於說話人分割的模型,能夠進行語音活動檢測、重疊語音檢測和重新分割等任務。它基於論文提出的方法,依賴於正在開發中的 pyannote.audio 2.0 版本。

此模型來自論文 End-to-end speaker segmentation for overlap-aware resegmentation,由 Hervé Bredin 和 Antoine Laurent 完成。
該模型依賴於目前正在開發中的 pyannote.audio 2.0:請查看 安裝說明。
🚀 快速開始
本模型可用於語音活動檢測、重疊語音檢測、重新分割等任務,具體使用方法見下文。
✨ 主要特性
- 多任務支持:支持語音活動檢測、重疊語音檢測和重新分割等多種任務。
- 基於論文方法:模型基於特定論文提出的端到端說話人分割方法。
- 依賴開發版本:依賴於正在開發中的 pyannote.audio 2.0 版本。
📦 安裝指南
依賴於目前正在開發中的 pyannote.audio 2.0,安裝說明請參考:安裝說明。
💻 使用示例
基礎用法
語音活動檢測
from pyannote.audio.pipelines import VoiceActivityDetection
pipeline = VoiceActivityDetection(segmentation="pyannote/segmentation")
HYPER_PARAMETERS = {
"onset": 0.5, "offset": 0.5,
"min_duration_on": 0.0,
"min_duration_off": 0.0
}
pipeline.instantiate(HYPER_PARAMETERS)
vad = pipeline("audio.wav")
重疊語音檢測
from pyannote.audio.pipelines import OverlappedSpeechDetection
pipeline = OverlappedSpeechDetection(segmentation="pyannote/segmentation")
pipeline.instantiate(HYPER_PARAMETERS)
osd = pipeline("audio.wav")
重新分割
from pyannote.audio.pipelines import Resegmentation
pipeline = Resegmentation(segmentation="pyannote/segmentation",
diarization="baseline")
pipeline.instantiate(HYPER_PARAMETERS)
resegmented_baseline = pipeline({"audio": "audio.wav", "baseline": baseline})
原始分數
from pyannote.audio import Inference
inference = Inference("pyannote/segmentation")
segmentation = inference("audio.wav")
高級用法
為了復現論文 "End-to-end speaker segmentation for overlap-aware resegmentation" 的結果,可使用以下超參數:
任務 |
數據集 |
onset |
offset |
min_duration_on |
min_duration_off |
語音活動檢測 |
AMI Mix-Headset |
0.684 |
0.577 |
0.181 |
0.037 |
語音活動檢測 |
DIHARD3 |
0.767 |
0.377 |
0.136 |
0.067 |
語音活動檢測 |
VoxConverse |
0.767 |
0.713 |
0.182 |
0.501 |
重疊語音檢測 |
AMI Mix-Headset |
0.448 |
0.362 |
0.116 |
0.187 |
重疊語音檢測 |
DIHARD3 |
0.430 |
0.320 |
0.091 |
0.144 |
重疊語音檢測 |
VoxConverse |
0.587 |
0.426 |
0.337 |
0.112 |
VBx 重新分割 |
AMI Mix-Headset |
0.542 |
0.527 |
0.044 |
0.705 |
VBx 重新分割 |
DIHARD3 |
0.592 |
0.489 |
0.163 |
0.182 |
VBx 重新分割 |
VoxConverse |
0.537 |
0.724 |
0.410 |
0.563 |
預期輸出(和 VBx 基線)也在 /reproducible_research
子目錄中提供。
📚 詳細文檔
支持信息
📄 許可證
本項目採用 MIT 許可證。
📚 引用
如果您使用了本項目,請引用以下論文:
@inproceedings{Bredin2021,
Title = {{End-to-end speaker segmentation for overlap-aware resegmentation}},
Author = {{Bredin}, Herv{\'e} and {Laurent}, Antoine},
Booktitle = {Proc. Interspeech 2021},
Address = {Brno, Czech Republic},
Month = {August},
Year = {2021},
@inproceedings{Bredin2020,
Title = {{pyannote.audio: neural building blocks for speaker diarization}},
Author = {{Bredin}, Herv{\\\\'e} and {Yin}, Ruiqing and {Coria}, Juan Manuel and {Gelly}, Gregory and {Korshunov}, Pavel and {Lavechin}, Marvin and {Fustes}, Diego and {Titeux}, Hadrien and {Bouaziz}, Wassim and {Gill}, Marie-Philippe},
Booktitle = {ICASSP 2020, IEEE International Conference on Acoustics, Speech, and Signal Processing},
Address = {Barcelona, Spain},
Month = {May},
Year = {2020},
}