🚀 耳语泰卢固语中型模型
本模型是基于多个公开可用的自动语音识别(ASR)语料库中的泰卢固语数据,对 openai/whisper-medium 进行微调后的版本。它是耳语微调冲刺项目的一部分。
注意:训练此模型的代码可在 whisper-finetune 仓库中复用。
🚀 快速开始
本模型可用于泰卢固语的自动语音识别任务。你可以使用提供的代码示例进行推理和评估。
✨ 主要特性
- 基于公开的泰卢固语数据对
openai/whisper-medium
模型进行微调。
- 提供了评估代码和推理脚本,支持快速评估和推理。
- 支持使用
whisper-jax
库进行更快的推理。
📦 安装指南
若要评估此模型或进行推理,可参考 whisper-finetune 仓库中的说明进行安装。
💻 使用示例
基础用法
若要使用此模型对单个音频文件进行转录,可使用以下代码片段:
>>> import torch
>>> from transformers import pipeline
>>>
>>> audio = "/path/to/audio.format"
>>> device = "cuda:0" if torch.cuda.is_available() else "cpu"
>>> transcribe = pipeline(task="automatic-speech-recognition", model="vasista22/whisper-telugu-medium", chunk_length_s=30, device=device)
>>> transcribe.model.config.forced_decoder_ids = transcribe.tokenizer.get_decoder_prompt_ids(language="te", task="transcribe")
>>> print('转录结果: ', transcribe(audio)["text"])
高级用法
若要对耳语模型进行更快的推理,可使用 whisper-jax 库。请按照 此处 所述的必要安装步骤操作,然后使用以下代码片段:
>>> import jax.numpy as jnp
>>> from whisper_jax import FlaxWhisperForConditionalGeneration, FlaxWhisperPipline
>>>
>>> audio = "/path/to/audio.format"
>>> transcribe = FlaxWhisperPipline("vasista22/whisper-telugu-medium", batch_size=16)
>>> transcribe.model.config.forced_decoder_ids = transcribe.tokenizer.get_decoder_prompt_ids(language="te", task="transcribe")
>>> print('转录结果: ', transcribe(audio)["text"])
📚 详细文档
训练和评估数据
属性 |
详情 |
训练数据 |
CSTD IIIT - H ASR 语料库、[ULCA ASR 语料库](https://github.com/Open - Speech - EkStep/ULCA - asr - dataset - corpus#telugu - labelled - total - duration - is - 102593 - hours)、Shrutilipi ASR 语料库、[微软语音语料库(印度语言)](https://msropendata.com/datasets/7230b4b1 - 912d - 400e - be58 - f84e0512985e)、Google/Fleurs 训练+开发集、Babel ASR 语料库 |
评估数据 |
[微软语音语料库(印度语言)测试集](https://msropendata.com/datasets/7230b4b1 - 912d - 400e - be58 - f84e0512985e)、Google/Fleurs 测试集、OpenSLR、Babel 测试集 |
训练超参数
属性 |
详情 |
学习率 |
1e - 05 |
训练批次大小 |
24 |
评估批次大小 |
48 |
随机种子 |
22 |
优化器 |
adamw_bnb_8bit |
学习率调度器类型 |
linear |
学习率调度器热身步数 |
15000 |
训练步数 |
35808(收敛时终止,初始设置为 89520 步) |
混合精度训练 |
True |
模型评估结果
任务 |
数据集 |
指标 |
值 |
自动语音识别 |
google/fleurs (te_in 配置,测试集) |
字错误率 (WER) |
9.47 |
🔧 技术细节
本模型是对 openai/whisper-medium
进行微调得到的。微调过程中使用了多个公开的泰卢固语 ASR 语料库。训练过程中采用了特定的超参数设置,如学习率、批次大小等,并使用了 8 位 AdamW 优化器和线性学习率调度器。
📄 许可证
本模型使用 Apache 2.0 许可证。
致谢
本工作在 印度理工学院马德拉斯分校语音实验室 完成。本工作的计算资源由印度电子和信息技术部(MeitY)的 “Bhashini:国家语言翻译任务” 项目资助。