🚀 NVIDIA Conformer-Transducer Large (es)
本模型可将西班牙语语音转录为小写字母形式,包含空格。它在由1340小时西班牙语语音组成的复合数据集上进行训练,是Conformer - Transducer的“大型”变体,约有1.2亿个参数。查看模型架构部分和NeMo文档可了解完整的架构细节。
|
|
| 
🚀 快速开始
本模型可用于语音转录,若要对其进行训练、微调或使用,你需要安装 NVIDIA NeMo。我们建议你在安装最新版本的Pytorch之后再安装它。
✨ 主要特性
- 可将西班牙语语音转录为小写字母形式,包含空格。
- 基于Conformer - Transducer架构,约有1.2亿个参数。
- 在由1340小时西班牙语语音组成的复合数据集上进行训练。
📦 安装指南
pip install nemo_toolkit['all']
💻 使用示例
基础用法
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTBPEModel.from_pretrained("nvidia/stt_es_conformer_transducer_large")
高级用法
转录单个音频文件
首先,获取一个示例音频文件:
wget https://dldata-public.s3.us-east-2.amazonaws.com/2086-149220-0033.wav
然后进行转录:
output = asr_model.transcribe(['2086-149220-0033.wav'])
print(output[0].text)
转录多个音频文件
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_es_conformer_transducer_large"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
📚 详细文档
输入
本模型接受16000 Hz单声道音频(wav文件)作为输入。
输出
本模型为给定的音频样本提供转录后的语音字符串。
模型架构
Conformer - Transducer模型是用于自动语音识别的Conformer模型的自回归变体,它使用Transducer损失/解码而不是CTC损失。你可以在Conformer - Transducer模型中找到该模型的详细信息。
训练
使用NeMo工具包 [3] 对模型进行了数百个epoch的训练。这些模型使用此示例脚本和此基础配置进行训练。
这些模型的分词器是使用训练集的文本转录通过此脚本构建的。
数据集
本集合中的所有模型都在由1340小时西班牙语语音组成的复合数据集(NeMo ASRSET)上进行训练:
- Mozilla Common Voice 7.0(西班牙语) - 数据清理后为289小时
- Multilingual LibriSpeech(西班牙语) - 数据清理后为801小时
- Voxpopuli转录子集(西班牙语) - 数据清理后为110小时
- Fisher数据集(西班牙语) - 数据清理后为140小时
性能
本集合中可用模型的列表如下表所示。自动语音识别(ASR)模型的性能以单词错误率(WER%)报告,采用贪心解码。
版本 |
分词器 |
词汇表大小 |
MCV 7.0开发集 |
MCV 7.0测试集 |
MLS开发集 |
MLS测试集 |
Voxpopuli开发集 |
Voxpopuli测试集 |
Fisher开发集 |
Fisher测试集 |
训练数据集 |
1.8.0 |
SentencePiece Unigram |
1024 |
4.6 |
5.2 |
2.7 |
3.2 |
4.7 |
6.0 |
14.7 |
14.8 |
NeMo ASRSET 2.0 |
局限性
由于该模型是在公开可用的语音数据集上训练的,对于包含技术术语或模型未训练过的方言的语音,其性能可能会下降。对于带有口音的语音,模型的表现可能也会更差。
NVIDIA Riva部署
NVIDIA Riva 是一个加速语音AI SDK,可部署在本地、所有云、多云、混合云、边缘和嵌入式设备上。此外,Riva还提供:
- 针对最常见语言的世界级开箱即用准确性,其模型检查点在专有数据上进行了数十万小时的GPU计算训练。
- 具有运行时单词增强(例如品牌和产品名称)以及声学模型、语言模型和逆文本规范化定制的一流准确性。
- 流式语音识别、Kubernetes兼容扩展和企业级支持。
尽管此模型目前尚未得到Riva的支持,但支持的模型列表在此。查看 Riva实时演示。
🔧 技术细节
Conformer - Transducer模型结合了Conformer架构和Transducer损失/解码机制,Conformer架构通过卷积增强Transformer,以更好地处理语音信号的局部和全局特征。在训练过程中,使用了大量的西班牙语语音数据,经过数据清理和预处理后,用于训练模型的参数。分词器采用SentencePiece Unigram,词汇表大小为1024。
📄 许可证
使用此模型的许可受 CC - BY - 4.0 许可协议的约束。通过下载该模型的公开和发布版本,即表示你接受 CC - BY - 4.0 许可协议的条款和条件。
参考文献