🚀 基於WHAM!數據集訓練的SepFormer模型
本倉庫提供了使用 SepFormer 模型進行音頻源分離所需的所有工具。該模型基於 SpeechBrain 實現,並在 WHAM! 數據集上進行了預訓練。WHAM! 數據集本質上是帶有環境噪聲的 WSJ0 - Mix 數據集的一個版本。為了獲得更好的體驗,建議您進一步瞭解 SpeechBrain。該模型在 WHAM! 數據集測試集上的 SI - SNRi 指標達到了 16.3 dB。
發佈日期 |
測試集 SI - SNRi |
測試集 SDRi |
2021 年 3 月 9 日 |
16.3 dB |
16.7 dB |
🚀 快速開始
📦 安裝指南
首先,請使用以下命令安裝 SpeechBrain:
pip install speechbrain
請注意,建議您閱讀我們的教程,進一步瞭解 SpeechBrain。
💻 使用示例
基礎用法
對您自己的音頻文件進行源分離:
from speechbrain.inference.separation import SepformerSeparation as separator
import torchaudio
model = separator.from_hparams(source="speechbrain/sepformer-wham", savedir='pretrained_models/sepformer-wham')
est_sources = model.separate_file(path='speechbrain/sepformer-wsj02mix/test_mixture.wav')
torchaudio.save("source1hat.wav", est_sources[:, :, 0].detach().cpu(), 8000)
torchaudio.save("source2hat.wav", est_sources[:, :, 1].detach().cpu(), 8000)
該系統期望輸入的錄音採樣率為 8kHz(單聲道)。如果您的信號採樣率不同,請在使用該接口之前對其進行重採樣(例如,使用 torchaudio 或 sox)。
高級用法
在 GPU 上進行推理:
要在 GPU 上進行推理,請在調用 from_hparams
方法時添加 run_opts={"device":"cuda"}
。
訓練
該模型使用 SpeechBrain (e375cd13) 進行訓練。要從頭開始訓練該模型,請按照以下步驟操作:
- 克隆 SpeechBrain:
git clone https://github.com/speechbrain/speechbrain/
- 安裝它:
cd speechbrain
pip install -r requirements.txt
pip install -e .
- 運行訓練:
cd recipes/WHAMandWHAMR/separation
python train.py hparams/sepformer-wham.yaml --data_folder=your_data_folder
您可以在 此處 找到我們的訓練結果(模型、日誌等)。
侷限性
SpeechBrain 團隊不對該模型在其他數據集上的性能提供任何保證。
📄 許可證
本項目採用 Apache - 2.0 許可證。
引用
引用 SpeechBrain
@misc{speechbrain,
title={{SpeechBrain}: A General-Purpose Speech Toolkit},
author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
year={2021},
eprint={2106.04624},
archivePrefix={arXiv},
primaryClass={eess.AS},
note={arXiv:2106.04624}
}
引用 SepFormer
@inproceedings{subakan2021attention,
title={Attention is All You Need in Speech Separation},
author={Cem Subakan and Mirco Ravanelli and Samuele Cornell and Mirko Bronzi and Jianyuan Zhong},
year={2021},
booktitle={ICASSP 2021}
}
關於 SpeechBrain
- 網站:https://speechbrain.github.io/
- 代碼:https://github.com/speechbrain/speechbrain/
- HuggingFace:https://huggingface.co/speechbrain/