🚀 用於AISHELL + wav2vec2(中文普通話)的Transformer
本倉庫提供了在SpeechBrain中,基於在AISHELL + wav2vec2(中文普通話)上預訓練的端到端系統進行自動語音識別所需的所有工具。為獲得更好的體驗,建議您進一步瞭解SpeechBrain。
該模型的性能如下:
版本發佈日期 |
開發集字符錯誤率(CER) |
測試集字符錯誤率(CER) |
GPU 配置 |
完整結果 |
2021年3月5日 |
5.19 |
5.58 |
2xV100 32GB |
Google雲端硬盤 |
🚀 快速開始
本自動語音識別(ASR)系統由兩個不同但相互關聯的模塊組成:
- 分詞器(unigram):將單詞轉換為子詞單元,並使用LibriSpeech的訓練轉錄數據進行訓練。
- 聲學模型:由wav2vec2編碼器和結合了CTC + Transformer的聯合解碼器組成。因此,解碼過程也會納入CTC概率。
若要從頭開始訓練此係統,請查看我們的SpeechBrain配方。
該系統使用採樣率為16kHz(單聲道)的錄音進行訓練。調用transcribe_file
時,代碼會根據需要自動對音頻進行歸一化處理(即重採樣和選擇單聲道)。
✨ 主要特性
- 端到端系統:基於預訓練的AISHELL + wav2vec2模型,實現自動語音識別。
- 性能優異:在開發集和測試集上均取得了較低的字符錯誤率。
- 靈活性高:支持GPU推理和批量並行推理。
- 易於訓練:提供詳細的訓練步驟和代碼示例。
📦 安裝指南
首先,請使用以下命令安裝SpeechBrain:
pip install speechbrain
建議您閱讀我們的教程,進一步瞭解SpeechBrain。
💻 使用示例
基礎用法
以下是轉錄您自己的音頻文件(英文)的示例代碼:
from speechbrain.inference.ASR import EncoderDecoderASR
asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-wav2vec2-transformer-aishell", savedir="pretrained_models/asr-wav2vec2-transformer-aishell")
asr_model.transcribe_file("speechbrain/asr-wav2vec2-transformer-aishell/example_mandarin.wav")
高級用法
若要在GPU上進行推理,請在調用from_hparams
方法時添加run_opts={"device":"cuda"}
:
from speechbrain.inference.ASR import EncoderDecoderASR
asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-wav2vec2-transformer-aishell", savedir="pretrained_models/asr-wav2vec2-transformer-aishell", run_opts={"device":"cuda"})
asr_model.transcribe_file("speechbrain/asr-wav2vec2-transformer-aishell/example_mandarin.wav")
批量並行推理
請查看此Colab筆記本,瞭解如何使用預訓練模型對一批輸入句子進行並行轉錄。
🔧 技術細節
訓練步驟
該模型使用SpeechBrain進行訓練(提交哈希:'480dde87')。若要從頭開始訓練,請按照以下步驟操作:
- 克隆SpeechBrain倉庫:
git clone https://github.com/speechbrain/speechbrain/
- 安裝依賴:
cd speechbrain
pip install -r requirements.txt
pip install -e .
- 運行訓練腳本:
cd recipes/AISHELL-1/ASR/transformer/
python train.py hparams/train_ASR_transformer_with_wav2vect.yaml --data_folder=your_data_folder
您可以在此處找到我們的訓練結果(模型、日誌等)。
侷限性
SpeechBrain團隊不保證該模型在其他數據集上的性能。
📄 許可證
本項目採用Apache-2.0許可證。
關於SpeechBrain
- 官網:https://speechbrain.github.io/
- 代碼倉庫:https://github.com/speechbrain/speechbrain/
- HuggingFace頁面:https://huggingface.co/speechbrain/
引用SpeechBrain
如果您在研究或業務中使用了SpeechBrain,請引用以下文獻:
@misc{speechbrain,
title={{SpeechBrain}: A General-Purpose Speech Toolkit},
author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
year={2021},
eprint={2106.04624},
archivePrefix={arXiv},
primaryClass={eess.AS},
note={arXiv:2106.04624}
}