🚀 NVIDIA FastConformer-Hybrid Large (uz)
本模型可将乌兹别克语语音转录为包含大小写字母、空格、逗号、问号和破折号的文本。它是FastConformer Transducer - CTC的“大型”版本(约1.15亿个参数),这是一个基于两种损失函数(Transducer(默认)和CTC)训练的混合模型。欲了解完整的模型架构细节,请参阅模型架构部分和NeMo文档。
|
|
| 
🚀 快速开始
要训练、微调或使用该模型,你需要安装 NVIDIA NeMo。建议在安装最新版本的PyTorch之后再安装它。
pip install nemo_toolkit['all']
✨ 主要特性
- 能够处理乌兹别克语语音,输出包含大小写、空格、逗号、问号和破折号的文本。
- 采用FastConformer Transducer - CTC混合架构,约1.15亿个参数。
- 基于两种损失函数(Transducer和CTC)进行训练。
📦 安装指南
要训练、微调或使用该模型,你需要安装 NVIDIA NeMo。建议在安装最新版本的PyTorch之后再安装它。
pip install nemo_toolkit['all']
💻 使用示例
基础用法
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecHybridRNNTCTCBPEModel.from_pretrained(model_name="nvidia/stt_uz_fastconformer_hybrid_large_pc")
高级用法
单音频文件转录
output = asr_model.transcribe(['audio_file.wav'])
print(output[0].text)
多音频文件转录
使用Transducer模式推理:
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_uz_fastconformer_hybrid_large_pc"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
使用CTC模式推理:
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_uz_fastconformer_hybrid_large_pc"
audio_dir="<DIRECTORY CONTAINING AUDIO FILES>"
decoder_type="ctc"
输入
该模型接受16000 Hz单声道音频(wav文件)作为输入。
输出
该模型为给定的音频样本提供转录后的语音字符串。
📚 详细文档
模型架构
FastConformer [1] 是Conformer模型的优化版本,具有8倍深度可分离卷积下采样。该模型在多任务设置中使用Transducer解码器损失进行训练。你可以在Fast - Conformer模型中找到有关FastConformer详细信息。
训练
使用NeMo工具包 [3] 对模型进行了数百个epoch的训练。这些模型使用示例脚本和基础配置进行训练。
这些模型的分词器是使用训练集的文本转录,通过脚本构建的。
数据集
该模型在三个复合数据集上进行训练,包含1000小时的乌兹别克语语音:
- MCV 17.0乌兹别克语(约90小时)
- UzbekVoice(约900小时)
- Fleurs乌兹别克语(约10小时)
性能
自动语音识别模型的性能通过词错误率(Word Error Rate)来衡量。由于该数据集在多个领域和更大的语料库上进行训练,因此在一般的音频转录中通常表现更好。
以下表格总结了使用Transducer解码器的模型性能。自动语音识别模型的性能以词错误率(WER%)和贪心解码的方式报告。
|
WER(%) |
无大写WER |
无标点WER |
无标点和大写WER |
FLEURS开发集(用作测试) |
17.52 |
16.20 |
12.20 |
10.73 |
MCV测试集 |
16.46 |
15.89 |
7.78 |
7.18 |
局限性
该模型是非流式的,输出的语音字符串没有大小写和标点。由于该模型是在公开可用的语音数据集上训练的,对于包含技术术语或模型未训练过的方言的语音,其性能可能会下降。
NVIDIA Riva部署
NVIDIA Riva 是一个加速的语音AI SDK,可部署在本地、所有云、多云、混合云、边缘和嵌入式设备上。此外,Riva还提供:
- 针对最常见语言的世界级开箱即用准确性,其模型检查点在专有数据上进行了数十万GPU计算小时的训练。
- 具有运行时单词增强(例如品牌和产品名称)以及声学模型、语言模型和逆文本归一化定制的一流准确性。
- 流式语音识别、Kubernetes兼容的扩展和企业级支持。
尽管该模型目前尚未得到Riva的支持,但支持的模型列表在此。查看 Riva实时演示。
🔧 技术细节
FastConformer是Conformer模型的优化版本,通过8倍深度可分离卷积下采样提升性能。模型在多任务设置下使用Transducer解码器损失训练。训练使用NeMo工具包,历经数百个epoch,借助特定示例脚本和基础配置文件。分词器基于训练集文本转录构建。
📄 许可证
使用此模型的许可受 CC - BY - 4.0 许可证的约束。通过下载该模型的公开版本,即表示你接受 CC - BY - 4.0 许可证的条款和条件。
参考文献
[1] Fast Conformer with Linearly Scalable Attention for Efficient Speech Recognition
[2] Google Sentencepiece Tokenizer
[3] NVIDIA NeMo Toolkit