🚀 NVIDIA Conformer-Transducer Large (es)
本模型可將西班牙語語音轉錄為小寫字母形式,包含空格。它在由1340小時西班牙語語音組成的複合數據集上進行訓練,是Conformer - Transducer的“大型”變體,約有1.2億個參數。查看模型架構部分和NeMo文檔可瞭解完整的架構細節。
|
|
| 
🚀 快速開始
本模型可用於語音轉錄,若要對其進行訓練、微調或使用,你需要安裝 NVIDIA NeMo。我們建議你在安裝最新版本的Pytorch之後再安裝它。
✨ 主要特性
- 可將西班牙語語音轉錄為小寫字母形式,包含空格。
- 基於Conformer - Transducer架構,約有1.2億個參數。
- 在由1340小時西班牙語語音組成的複合數據集上進行訓練。
📦 安裝指南
pip install nemo_toolkit['all']
💻 使用示例
基礎用法
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTBPEModel.from_pretrained("nvidia/stt_es_conformer_transducer_large")
高級用法
轉錄單個音頻文件
首先,獲取一個示例音頻文件:
wget https://dldata-public.s3.us-east-2.amazonaws.com/2086-149220-0033.wav
然後進行轉錄:
output = asr_model.transcribe(['2086-149220-0033.wav'])
print(output[0].text)
轉錄多個音頻文件
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_es_conformer_transducer_large"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
📚 詳細文檔
輸入
本模型接受16000 Hz單聲道音頻(wav文件)作為輸入。
輸出
本模型為給定的音頻樣本提供轉錄後的語音字符串。
模型架構
Conformer - Transducer模型是用於自動語音識別的Conformer模型的自迴歸變體,它使用Transducer損失/解碼而不是CTC損失。你可以在Conformer - Transducer模型中找到該模型的詳細信息。
訓練
使用NeMo工具包 [3] 對模型進行了數百個epoch的訓練。這些模型使用此示例腳本和此基礎配置進行訓練。
這些模型的分詞器是使用訓練集的文本轉錄通過此腳本構建的。
數據集
本集合中的所有模型都在由1340小時西班牙語語音組成的複合數據集(NeMo ASRSET)上進行訓練:
- Mozilla Common Voice 7.0(西班牙語) - 數據清理後為289小時
- Multilingual LibriSpeech(西班牙語) - 數據清理後為801小時
- Voxpopuli轉錄子集(西班牙語) - 數據清理後為110小時
- Fisher數據集(西班牙語) - 數據清理後為140小時
性能
本集合中可用模型的列表如下表所示。自動語音識別(ASR)模型的性能以單詞錯誤率(WER%)報告,採用貪心解碼。
版本 |
分詞器 |
詞彙表大小 |
MCV 7.0開發集 |
MCV 7.0測試集 |
MLS開發集 |
MLS測試集 |
Voxpopuli開發集 |
Voxpopuli測試集 |
Fisher開發集 |
Fisher測試集 |
訓練數據集 |
1.8.0 |
SentencePiece Unigram |
1024 |
4.6 |
5.2 |
2.7 |
3.2 |
4.7 |
6.0 |
14.7 |
14.8 |
NeMo ASRSET 2.0 |
侷限性
由於該模型是在公開可用的語音數據集上訓練的,對於包含技術術語或模型未訓練過的方言的語音,其性能可能會下降。對於帶有口音的語音,模型的表現可能也會更差。
NVIDIA Riva部署
NVIDIA Riva 是一個加速語音AI SDK,可部署在本地、所有云、多雲、混合雲、邊緣和嵌入式設備上。此外,Riva還提供:
- 針對最常見語言的世界級開箱即用準確性,其模型檢查點在專有數據上進行了數十萬小時的GPU計算訓練。
- 具有運行時單詞增強(例如品牌和產品名稱)以及聲學模型、語言模型和逆文本規範化定製的一流準確性。
- 流式語音識別、Kubernetes兼容擴展和企業級支持。
儘管此模型目前尚未得到Riva的支持,但支持的模型列表在此。查看 Riva即時演示。
🔧 技術細節
Conformer - Transducer模型結合了Conformer架構和Transducer損失/解碼機制,Conformer架構通過卷積增強Transformer,以更好地處理語音信號的局部和全局特徵。在訓練過程中,使用了大量的西班牙語語音數據,經過數據清理和預處理後,用於訓練模型的參數。分詞器採用SentencePiece Unigram,詞彙表大小為1024。
📄 許可證
使用此模型的許可受 CC - BY - 4.0 許可協議的約束。通過下載該模型的公開和發佈版本,即表示你接受 CC - BY - 4.0 許可協議的條款和條件。
參考文獻