🚀 NVIDIA Conformer-Transducer Large (zh-ZH)
本模型用於將普通話語音轉錄為文字。它是 Conformer-Transducer 的大型版本(約 1.2 億個參數)。如需瞭解完整的架構細節,請參閱模型架構部分和 NeMo 文檔。
|
|
| 
🚀 快速開始
本模型可在 NeMo 工具包中使用,可作為預訓練檢查點進行推理或在其他數據集上進行微調。
✨ 主要特性
- 能夠將普通話語音轉錄為文字。
- 是 Conformer-Transducer 的大型版本,約 1.2 億個參數。
📦 安裝指南
若要訓練、微調或使用該模型,你需要安裝 NVIDIA NeMo。建議在安裝最新版本的 Pytorch 後再安裝它。
pip install nemo_toolkit['all']
💻 使用示例
基礎用法
自動實例化模型:
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTModel.from_pretrained("nvidia/stt_zh_conformer_transducer_large")
高級用法
轉錄單個音頻文件
你可以像這樣轉錄一個音頻文件:
output = asr_model.transcribe(['sample.wav'])
print(output[0].text)
轉錄多個音頻文件
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_zh_conformer_transducer_large"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
輸入
該模型接受 16000 KHz 單聲道音頻(wav 文件)作為輸入。
輸出
該模型為給定的音頻樣本提供轉錄後的語音字符串。
📚 詳細文檔
模型架構
Conformer-Transducer 模型是用於自動語音識別的 Conformer 模型 [1] 的自迴歸變體,它使用 Transducer 損失/解碼而不是 CTC 損失。你可以在Conformer-Transducer 模型中找到該模型的更多詳細信息。
訓練
使用 NeMo 工具包 [3] 對模型進行了數百個 epoch 的訓練。這些模型使用此示例腳本和此基礎配置進行訓練。
數據集
此集合中的所有模型均在包含普通話語音的 AISHELL2 [4] 上進行訓練。
性能
此集合中可用模型的列表如下表所示。ASR 模型的性能以貪心解碼的詞錯誤率(WER%)報告。
版本 |
分詞器 |
詞彙量 |
AISHELL2 測試 IOS |
AISHELL2 測試 Android |
AISHELL2 測試 Mic |
訓練數據集 |
1.10.0 |
字符 |
5026 |
5.3 |
5.7 |
5.6 |
AISHELL-2 |
侷限性
由於該模型是在公開可用的語音數據集上訓練的,因此對於包含技術術語或模型未訓練過的方言的語音,該模型的性能可能會下降。對於帶有口音的語音,模型的表現可能也會更差。
NVIDIA Riva:部署
NVIDIA Riva 是一個加速的語音 AI SDK,可部署在本地、所有云、多雲、混合雲、邊緣和嵌入式設備上。此外,Riva 還提供:
- 針對最常見語言的世界級開箱即用準確性,其模型檢查點在專有數據上進行了數十萬 GPU 計算小時的訓練。
- 具有運行時單詞增強(例如品牌和產品名稱)以及聲學模型、語言模型和逆文本歸一化定製的一流準確性。
- 流式語音識別、Kubernetes 兼容擴展和企業級支持。
儘管 Riva 目前尚不支持此模型,但支持的模型列表在此。查看 Riva 即時演示。
🔧 技術細節
本模型的技術細節可參考以下論文:
📄 許可證
使用此模型的許可受 CC-BY-4.0 許可協議的約束。通過下載該模型的公開版本,即表示你接受 CC-BY-4.0 許可協議的條款和條件。