🚀 語音活動檢測模型
本項目是一個基於pyannote.audio
的語音活動檢測模型,可用於識別音頻中的語音片段。它依賴於pyannote.audio 2.1
,並提供了簡單易用的API,方便開發者集成到自己的項目中。
🚀 快速開始
使用此開源模型進行生產時,可考慮切換到 pyannoteAI 以獲得更好更快的選擇。
該模型依賴於pyannote.audio 2.1
,請參考 安裝說明 進行安裝。
💻 使用示例
基礎用法
from pyannote.audio import Pipeline
pipeline = Pipeline.from_pretrained("pyannote/voice-activity-detection",
use_auth_token="ACCESS_TOKEN_GOES_HERE")
output = pipeline("audio.wav")
for speech in output.get_timeline().support():
...
📚 詳細文檔
數據集
該模型在以下數據集上進行訓練:
屬性 |
詳情 |
訓練數據 |
ami、dihard、voxconverse |
許可證
本項目採用 MIT 許可證。
額外的授權提示
收集的信息將有助於更好地瞭解pyannote.audio
的用戶群體,並幫助其維護者申請資助以進一步改進它。如果您是學術研究人員,請在自己的出版物中引用相關論文。如果您為公司工作,請考慮為pyannote.audio
的開發做出貢獻(例如,通過無限制捐贈)。我們還提供圍繞說話人分割和機器聽覺的科學諮詢服務。
額外的授權字段
- 公司/大學:文本輸入
- 網站:文本輸入
- 我計劃將此模型用於(任務、音頻數據類型等):文本輸入
📄 引用
@inproceedings{Bredin2021,
Title = {{End-to-end speaker segmentation for overlap-aware resegmentation}},
Author = {{Bredin}, Herv{\'e} and {Laurent}, Antoine},
Booktitle = {Proc. Interspeech 2021},
Address = {Brno, Czech Republic},
Month = {August},
Year = {2021},
}
@inproceedings{Bredin2020,
Title = {{pyannote.audio: neural building blocks for speaker diarization}},
Author = {{Bredin}, Herv{\'e} and {Yin}, Ruiqing and {Coria}, Juan Manuel and {Gelly}, Gregory and {Korshunov}, Pavel and {Lavechin}, Marvin and {Fustes}, Diego and {Titeux}, Hadrien and {Bouaziz}, Wassim and {Gill}, Marie-Philippe},
Booktitle = {ICASSP 2020, IEEE International Conference on Acoustics, Speech, and Signal Processing},
Address = {Barcelona, Spain},
Month = {May},
Year = {2020},
}