模型概述
模型特點
模型能力
使用案例
🚀 Parakeet TDT 1.1B (英文)
parakeet-tdt-1.1b
是一個自動語音識別(ASR)模型,可將語音轉錄為小寫英文字母。該模型由 NVIDIA NeMo 和 Suno.ai 團隊聯合開發。它是 FastConformer [1] TDT [2] 的 XXL 版本(約 11 億參數)模型。有關完整的架構細節,請參閱模型架構部分和 NeMo 文檔。
🚀 快速開始
安裝 NVIDIA NeMo
要訓練、微調或使用該模型,你需要安裝 NVIDIA NeMo。建議在安裝最新版本的 PyTorch 後再安裝它。
pip install nemo_toolkit['all']
使用模型
該模型可在 NeMo 工具包 [3] 中使用,可作為預訓練檢查點進行推理,或在其他數據集上進行微調。
自動實例化模型
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTBPEModel.from_pretrained(model_name="nvidia/parakeet-tdt-1.1b")
使用 Python 進行轉錄
首先,獲取一個示例音頻文件:
wget https://dldata-public.s3.us-east-2.amazonaws.com/2086-149220-0033.wav
然後進行轉錄:
output = asr_model.transcribe(['2086-149220-0033.wav'])
print(output[0].text)
轉錄多個音頻文件
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/parakeet-tdt-1.1b"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
輸入
該模型接受 16000 Hz 單聲道音頻(wav 文件)作為輸入。
輸出
該模型為給定的音頻樣本提供轉錄後的語音字符串。
✨ 主要特性
- 先進架構:採用 FastConformer-TDT 架構,結合了 FastConformer 的高效卷積下采樣和 TDT 對令牌和持續時間的解耦預測,提升了推理速度。
- 多領域訓練:在多個公共數據集和大量私有數據上進行訓練,涵蓋多種語音場景,具有更好的泛化能力。
- 性能優異:在多個自動語音識別任務中,具有較低的單詞錯誤率(WER)。
📦 安裝指南
要訓練、微調或使用該模型,你需要安裝 NVIDIA NeMo。建議在安裝最新版本的 PyTorch 後再安裝它。
pip install nemo_toolkit['all']
💻 使用示例
基礎用法
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTBPEModel.from_pretrained(model_name="nvidia/parakeet-tdt-1.1b")
高級用法
轉錄單個音頻文件
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTBPEModel.from_pretrained(model_name="nvidia/parakeet-tdt-1.1b")
output = asr_model.transcribe(['2086-149220-0033.wav'])
print(output[0].text)
轉錄多個音頻文件
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/parakeet-tdt-1.1b"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
📚 詳細文檔
模型架構
該模型使用 FastConformer-TDT 架構。FastConformer [1] 是 Conformer 模型的優化版本,具有 8 倍深度可分離卷積下采樣。有關 FastConformer 的更多詳細信息,請參閱 Fast-Conformer 模型。
TDT(Token-and-Duration Transducer)[2] 是傳統 Transducer 的推廣,通過解耦令牌和持續時間預測。與傳統 Transducer 在推理過程中產生大量空白不同,TDT 模型可以通過使用持續時間輸出(對於 parakeet-tdt-1.1b 模型,最多 4 幀)跳過大部分空白預測,從而顯著提高推理速度。有關 TDT 的詳細信息,請參閱 Efficient Sequence Transduction by Jointly Predicting Tokens and Durations。
訓練
使用 NeMo 工具包 [3] 對模型進行了數百個 epoch 的訓練。這些模型使用 示例腳本 和 基礎配置 進行訓練。
這些模型的分詞器使用訓練集的文本轉錄通過 腳本 構建。
數據集
該模型在 NVIDIA NeMo 和 Suno 團隊收集和準備的 64000 小時英語語音上進行訓練。
訓練數據集由 40000 小時的英語語音私有子集和來自以下公共數據集的 24000 小時組成:
- Librispeech:960 小時的英語語音
- Fisher Corpus
- Switchboard-1 數據集
- WSJ-0 和 WSJ-1
- 國家語音語料庫(第 1 部分,第 6 部分)
- VCTK
- VoxPopuli(英語)
- Europarl-ASR(英語)
- 多語言 Librispeech(MLS 英語) - 2000 小時子集
- Mozilla Common Voice(v7.0)
- People's Speech - 12000 小時子集
性能
自動語音識別模型的性能使用單詞錯誤率(WER)進行衡量。由於該數據集在多個領域和更大的語料庫上進行訓練,因此在一般音頻轉錄方面通常表現更好。
以下表格總結了該集合中可用模型使用 Transducer 解碼器的性能。ASR 模型的性能以貪婪解碼的單詞錯誤率(WER%)報告。
版本 | 分詞器 | 詞彙量大小 | AMI | Earnings-22 | Giga Speech | LS test-clean | SPGI Speech | TEDLIUM-v3 | Vox Populi | Common Voice |
---|---|---|---|---|---|---|---|---|---|---|
1.22.0 | SentencePiece Unigram | 1024 | 15.90 | 14.65 | 9.55 | 1.39 | 2.62 | 3.42 | 3.56 | 5.48 |
這些是沒有外部語言模型的貪婪 WER 數值。有關評估的更多詳細信息,請參閱 HuggingFace ASR 排行榜。
模型公平性評估
正如論文 "Towards Measuring Fairness in AI: the Casual Conversations Dataset" 中所述,我們評估了 parakeet-tdt-1.1b 模型的公平性。該模型在 CausalConversations-v1 數據集上進行評估,結果如下:
性別偏差
性別 | 男性 | 女性 | 未指定 | 其他 |
---|---|---|---|---|
話語數量 | 19325 | 24532 | 926 | 33 |
% WER | 17.18 | 14.61 | 19.06 | 37.57 |
年齡偏差
年齡組 | (18 - 30) | (31 - 45) | (46 - 85) | (1 - 100) |
---|---|---|---|---|
話語數量 | 15956 | 14585 | 13349 | 43890 |
% WER | 15.83 | 15.89 | 15.46 | 15.74 |
(公平性評估的錯誤率通過對參考文本和預測文本進行歸一化確定,與 https://github.com/huggingface/open_asr_leaderboard 中的評估方法類似。)
NVIDIA Riva 部署
NVIDIA Riva 是一個可在本地、所有云、多雲、混合雲、邊緣和嵌入式設備上部署的加速語音 AI SDK。此外,Riva 還提供:
- 卓越的開箱即用準確性:針對最常見語言,使用經過數十萬 GPU 計算小時的專有數據訓練的模型檢查點。
- 一流的準確性:支持運行時單詞增強(例如品牌和產品名稱),並可自定義聲學模型、語言模型和逆文本歸一化。
- 流式語音識別:支持 Kubernetes 兼容的擴展和企業級支持。
儘管該模型目前尚未得到 Riva 的支持,但 支持的模型列表在此。查看 Riva 即時演示。
🔧 技術細節
模型架構
- FastConformer:是 Conformer 模型的優化版本,通過 8 倍深度可分離卷積下采樣,減少了計算量,提高了模型的效率。
- TDT:通過解耦令牌和持續時間的預測,避免了傳統 Transducer 在推理過程中產生大量空白的問題,從而顯著提高了推理速度。
訓練細節
- 訓練工具:使用 NeMo 工具包進行訓練,該工具包提供了豐富的功能和優化算法。
- 訓練腳本和配置:使用特定的示例腳本和基礎配置,確保模型的訓練過程穩定和高效。
- 分詞器:使用 SentencePiece Unigram 分詞器,通過訓練集的文本轉錄構建詞彙表。
📄 許可證
使用該模型的許可遵循 CC-BY-4.0。通過下載該模型的公共和發佈版本,即表示你接受 CC-BY-4.0 許可的條款和條件。
參考文獻
[1] Fast Conformer with Linearly Scalable Attention for Efficient Speech Recognition [2] Efficient Sequence Transduction by Jointly Predicting Tokens and Durations [3] Google Sentencepiece Tokenizer [4] NVIDIA NeMo Toolkit [5] Suno.ai [6] HuggingFace ASR Leaderboard [7] Towards Measuring Fairness in AI: the Casual Conversations Dataset



