🚀 语音活动检测模型
本项目是一个基于pyannote.audio
的语音活动检测模型,可用于识别音频中的语音片段。它依赖于pyannote.audio 2.1
,并提供了简单易用的API,方便开发者集成到自己的项目中。
🚀 快速开始
使用此开源模型进行生产时,可考虑切换到 pyannoteAI 以获得更好更快的选择。
该模型依赖于pyannote.audio 2.1
,请参考 安装说明 进行安装。
💻 使用示例
基础用法
from pyannote.audio import Pipeline
pipeline = Pipeline.from_pretrained("pyannote/voice-activity-detection",
use_auth_token="ACCESS_TOKEN_GOES_HERE")
output = pipeline("audio.wav")
for speech in output.get_timeline().support():
...
📚 详细文档
数据集
该模型在以下数据集上进行训练:
属性 |
详情 |
训练数据 |
ami、dihard、voxconverse |
许可证
本项目采用 MIT 许可证。
额外的授权提示
收集的信息将有助于更好地了解pyannote.audio
的用户群体,并帮助其维护者申请资助以进一步改进它。如果您是学术研究人员,请在自己的出版物中引用相关论文。如果您为公司工作,请考虑为pyannote.audio
的开发做出贡献(例如,通过无限制捐赠)。我们还提供围绕说话人分割和机器听觉的科学咨询服务。
额外的授权字段
- 公司/大学:文本输入
- 网站:文本输入
- 我计划将此模型用于(任务、音频数据类型等):文本输入
📄 引用
@inproceedings{Bredin2021,
Title = {{End-to-end speaker segmentation for overlap-aware resegmentation}},
Author = {{Bredin}, Herv{\'e} and {Laurent}, Antoine},
Booktitle = {Proc. Interspeech 2021},
Address = {Brno, Czech Republic},
Month = {August},
Year = {2021},
}
@inproceedings{Bredin2020,
Title = {{pyannote.audio: neural building blocks for speaker diarization}},
Author = {{Bredin}, Herv{\'e} and {Yin}, Ruiqing and {Coria}, Juan Manuel and {Gelly}, Gregory and {Korshunov}, Pavel and {Lavechin}, Marvin and {Fustes}, Diego and {Titeux}, Hadrien and {Bouaziz}, Wassim and {Gill}, Marie-Philippe},
Booktitle = {ICASSP 2020, IEEE International Conference on Acoustics, Speech, and Signal Processing},
Address = {Barcelona, Spain},
Month = {May},
Year = {2020},
}