🚀 NVIDIA Conformer-Transducer Large (zh-ZH)
本模型用于将普通话语音转录为文字。它是 Conformer-Transducer 的大型版本(约 1.2 亿个参数)。如需了解完整的架构细节,请参阅模型架构部分和 NeMo 文档。
|
|
| 
🚀 快速开始
本模型可在 NeMo 工具包中使用,可作为预训练检查点进行推理或在其他数据集上进行微调。
✨ 主要特性
- 能够将普通话语音转录为文字。
- 是 Conformer-Transducer 的大型版本,约 1.2 亿个参数。
📦 安装指南
若要训练、微调或使用该模型,你需要安装 NVIDIA NeMo。建议在安装最新版本的 Pytorch 后再安装它。
pip install nemo_toolkit['all']
💻 使用示例
基础用法
自动实例化模型:
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTModel.from_pretrained("nvidia/stt_zh_conformer_transducer_large")
高级用法
转录单个音频文件
你可以像这样转录一个音频文件:
output = asr_model.transcribe(['sample.wav'])
print(output[0].text)
转录多个音频文件
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_zh_conformer_transducer_large"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
输入
该模型接受 16000 KHz 单声道音频(wav 文件)作为输入。
输出
该模型为给定的音频样本提供转录后的语音字符串。
📚 详细文档
模型架构
Conformer-Transducer 模型是用于自动语音识别的 Conformer 模型 [1] 的自回归变体,它使用 Transducer 损失/解码而不是 CTC 损失。你可以在Conformer-Transducer 模型中找到该模型的更多详细信息。
训练
使用 NeMo 工具包 [3] 对模型进行了数百个 epoch 的训练。这些模型使用此示例脚本和此基础配置进行训练。
数据集
此集合中的所有模型均在包含普通话语音的 AISHELL2 [4] 上进行训练。
性能
此集合中可用模型的列表如下表所示。ASR 模型的性能以贪心解码的词错误率(WER%)报告。
版本 |
分词器 |
词汇量 |
AISHELL2 测试 IOS |
AISHELL2 测试 Android |
AISHELL2 测试 Mic |
训练数据集 |
1.10.0 |
字符 |
5026 |
5.3 |
5.7 |
5.6 |
AISHELL-2 |
局限性
由于该模型是在公开可用的语音数据集上训练的,因此对于包含技术术语或模型未训练过的方言的语音,该模型的性能可能会下降。对于带有口音的语音,模型的表现可能也会更差。
NVIDIA Riva:部署
NVIDIA Riva 是一个加速的语音 AI SDK,可部署在本地、所有云、多云、混合云、边缘和嵌入式设备上。此外,Riva 还提供:
- 针对最常见语言的世界级开箱即用准确性,其模型检查点在专有数据上进行了数十万 GPU 计算小时的训练。
- 具有运行时单词增强(例如品牌和产品名称)以及声学模型、语言模型和逆文本归一化定制的一流准确性。
- 流式语音识别、Kubernetes 兼容扩展和企业级支持。
尽管 Riva 目前尚不支持此模型,但支持的模型列表在此。查看 Riva 实时演示。
🔧 技术细节
本模型的技术细节可参考以下论文:
📄 许可证
使用此模型的许可受 CC-BY-4.0 许可协议的约束。通过下载该模型的公开版本,即表示你接受 CC-BY-4.0 许可协议的条款和条件。