🚀 wav2vec 2.0 with CTC trained on LibriSpeech
本仓库提供了在 SpeechBrain 中基于端到端系统对 LibriSpeech(英语)进行预训练以执行自动语音识别所需的全部工具。为获得更好的体验,我们建议您进一步了解 SpeechBrain。
🚀 快速开始
本仓库提供了在 SpeechBrain 中基于端到端系统对 LibriSpeech(英语)进行预训练以执行自动语音识别所需的全部工具。为获得更好的体验,我们建议您进一步了解 SpeechBrain。
模型的性能如下:
版本发布日期 |
测试集(干净数据)的字错率(WER) |
测试集(其他数据)的字错率(WER) |
所用 GPU |
2022 年 3 月 24 日 |
1.90 |
3.96 |
1 个 A100 40GB |
✨ 主要特性
此自动语音识别(ASR)系统由两个不同但相互关联的模块组成:
- 分词器(unigram):将单词转换为字符,并使用训练转录数据(英语)进行训练。
- 声学模型(wav2vec2.0 + CTC):将预训练的 wav2vec 2.0 模型(wav2vec2-large-960h-lv60-self)与两个深度神经网络(DNN)层相结合,并在 LibriSpeech 上进行微调。得到的最终声学表示将输入到 CTC 中。
该系统使用采样率为 16kHz(单声道)的录音进行训练。当调用 transcribe_file 时,如果需要,代码将自动对音频进行归一化处理(即重采样和单声道选择)。
📦 安装指南
首先,请使用以下命令安装 transformers
和 SpeechBrain
:
pip install speechbrain transformers
请注意,我们建议您阅读我们的教程并进一步了解 SpeechBrain。
💻 使用示例
基础用法
对您自己的音频文件(英语)进行转录:
from speechbrain.inference.ASR import EncoderASR
asr_model = EncoderASR.from_hparams(source="speechbrain/asr-wav2vec2-librispeech", savedir="pretrained_models/asr-wav2vec2-librispeech")
asr_model.transcribe_file("speechbrain/asr-wav2vec2-commonvoice-en/example.wav")
高级用法
在 GPU 上进行推理
若要在 GPU 上进行推理,在调用 from_hparams
方法时添加 run_opts={"device":"cuda"}
:
from speechbrain.inference.ASR import EncoderASR
asr_model = EncoderASR.from_hparams(source="speechbrain/asr-wav2vec2-librispeech", savedir="pretrained_models/asr-wav2vec2-librispeech", run_opts={"device":"cuda"})
asr_model.transcribe_file("speechbrain/asr-wav2vec2-commonvoice-en/example.wav")
批量并行推理
请参考 此 Colab 笔记本,了解如何使用预训练模型对一批输入语句进行并行转录。
🔧 技术细节
训练步骤
该模型使用 SpeechBrain 进行训练。若要从头开始训练,请按照以下步骤操作:
- 克隆 SpeechBrain 仓库:
git clone https://github.com/speechbrain/speechbrain/
- 安装依赖:
cd speechbrain
pip install -r requirements.txt
pip install -e .
- 运行训练脚本:
cd recipes/LibriSpeech/ASR/CTC
python train_with_wav2vec.py hparams/train_en_with_wav2vec.yaml --data_folder=your_data_folder
您可以在 此处 找到我们的训练结果(模型、日志等)。
局限性
SpeechBrain 团队不保证该模型在其他数据集上的性能。
📚 详细文档
关于 SpeechBrain
- 官网:https://speechbrain.github.io/
- 代码仓库:https://github.com/speechbrain/speechbrain/
- HuggingFace 页面:https://huggingface.co/speechbrain/
引用 SpeechBrain
如果您在研究或业务中使用了 SpeechBrain,请引用以下文献:
@misc{speechbrain,
title={{SpeechBrain}: A General-Purpose Speech Toolkit},
author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
year={2021},
eprint={2106.04624},
archivePrefix={arXiv},
primaryClass={eess.AS},
note={arXiv:2106.04624}
}
📄 许可证
本项目采用 Apache 2.0 许可证。
属性 |
详情 |
模型类型 |
基于 wav2vec 2.0 和 CTC 的自动语音识别模型 |
训练数据 |
LibriSpeech(英语) |
评估指标 |
字错率(WER)、字符错误率(CER) |