🚀 SepFormer在WHAMR!数据集上的预训练模型
本仓库提供了使用基于 SepFormer 架构的模型进行音频源分离所需的所有工具。该模型使用 SpeechBrain 实现,并在 WHAMR! 数据集上进行了预训练。WHAMR! 数据集本质上是 WSJ0-Mix 数据集的一个带有环境噪声和混响的版本。为了获得更好的使用体验,我们建议您进一步了解 SpeechBrain。该模型在 WHAMR! 数据集测试集上的 SI-SNRi 指标达到了 13.7 dB。
版本发布日期 |
测试集 SI-SNRi |
测试集 SDRi |
2021年3月30日 |
13.7 dB |
12.7 dB |
🚀 快速开始
本仓库提供了使用基于 SepFormer 架构的模型进行音频源分离所需的所有工具。该模型使用 SpeechBrain 实现,并在 WHAMR! 数据集上进行了预训练。
✨ 主要特性
- 基于 SepFormer 架构,在 WHAMR! 数据集上预训练,可有效进行音频源分离。
- 提供了安装、推理和训练的完整流程。
- 模型在测试集上有较好的性能表现(SI-SNRi 为 13.7 dB)。
📦 安装指南
安装 SpeechBrain
首先,请使用以下命令安装 SpeechBrain:
pip install speechbrain
请注意,我们建议您阅读我们的教程,进一步了解 SpeechBrain。
💻 使用示例
基础用法
在您自己的音频文件上进行源分离:
from speechbrain.inference.separation import SepformerSeparation as separator
import torchaudio
model = separator.from_hparams(source="speechbrain/sepformer-whamr", savedir='pretrained_models/sepformer-whamr')
est_sources = model.separate_file(path='speechbrain/sepformer-wsj02mix/test_mixture.wav')
torchaudio.save("source1hat.wav", est_sources[:, :, 0].detach().cpu(), 8000)
torchaudio.save("source2hat.wav", est_sources[:, :, 1].detach().cpu(), 8000)
系统期望输入的录音采样率为 8kHz(单声道)。如果您的信号采样率不同,请在使用该接口之前对其进行重采样(例如,使用 torchaudio 或 sox)。
高级用法
在 GPU 上进行推理
要在 GPU 上进行推理,在调用 from_hparams
方法时添加 run_opts={"device":"cuda"}
:
model = separator.from_hparams(source="speechbrain/sepformer-whamr", savedir='pretrained_models/sepformer-whamr', run_opts={"device":"cuda"})
🔧 技术细节
训练步骤
该模型使用 SpeechBrain (e375cd13) 进行训练。要从头开始训练该模型,请按照以下步骤操作:
- 克隆 SpeechBrain 仓库:
git clone https://github.com/speechbrain/speechbrain/
- 安装依赖:
cd speechbrain
pip install -r requirements.txt
pip install -e .
- 运行训练:
cd recipes/WHAMandWHAMR/separation
python train.py hparams/sepformer-whamr.yaml --data_folder=YOUR_DATA_FOLDER --rir_path=YOUR_ROOM_IMPULSE_SAVE_PATH
您可以在 这里 找到我们的训练结果(模型、日志等)。
局限性
SpeechBrain 团队不保证该模型在其他数据集上的性能表现。
📄 许可证
本项目采用 Apache-2.0 许可证。
📚 详细文档
引用 SpeechBrain
@misc{speechbrain,
title={{SpeechBrain}: A General-Purpose Speech Toolkit},
author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
year={2021},
eprint={2106.04624},
archivePrefix={arXiv},
primaryClass={eess.AS},
note={arXiv:2106.04624}
}
引用 SepFormer
@inproceedings{subakan2021attention,
title={Attention is All You Need in Speech Separation},
author={Cem Subakan and Mirco Ravanelli and Samuele Cornell and Mirko Bronzi and Jianyuan Zhong},
year={2021},
booktitle={ICASSP 2021}
}
关于 SpeechBrain
- 官网:https://speechbrain.github.io/
- 代码仓库:https://github.com/speechbrain/speechbrain/
- HuggingFace 页面:https://huggingface.co/speechbrain/