🚀 Whisper Large v3 Turbo TR - Selim Çavaş
本模型是在Common Voice 17.0数据集上对openai/whisper-large-v3-turbo进行微调后的版本。它在评估集上取得了以下成果,能够高效处理土耳其语语音相关任务,为语音识别和处理领域提供了强大支持。
🚀 快速开始
本模型可用于多种应用场景,以下是使用该模型的基本步骤和示例代码。
✨ 主要特性
- 多场景应用:可用于土耳其语的转录、语音命令以及土耳其语视频的自动字幕生成等。
- 微调优化:基于Common Voice 17.0数据集对基础模型进行微调,提升了在特定任务上的性能。
📦 安装指南
文档未提及具体安装步骤,可参考transformers
库的官方安装说明进行安装。
💻 使用示例
基础用法
import torch
from transformers import AutoModelForSpeechSeq2Seq, AutoProcessor, pipeline
device = "cuda:0" if torch.cuda.is_available() else "cpu"
torch_dtype = torch.float16 if torch.cuda.is_available() else torch.float32
model_id = "selimc/whisper-large-v3-turbo-turkish"
model = AutoModelForSpeechSeq2Seq.from_pretrained(
model_id, torch_dtype=torch_dtype, low_cpu_mem_usage=True, use_safetensors=True
)
model.to(device)
processor = AutoProcessor.from_pretrained(model_id)
pipe = pipeline(
"automatic-speech-recognition",
model=model,
tokenizer=processor.tokenizer,
feature_extractor=processor.feature_extractor,
chunk_length_s=30,
batch_size=16,
return_timestamps=True,
torch_dtype=torch_dtype,
device=device,
)
result = pipe("test.mp3")
print(result["text"])
📚 详细文档
预期用途与限制
本模型可用于多个应用领域,包括:
训练情况
由于Colab GPU的限制,仅使用了Common Voice 17.0数据集中25%的土耳其语数据进行训练。如果您有闲置的GPU,欢迎合作,进一步提升该模型的性能!
训练超参数
训练过程中使用了以下超参数:
属性 |
详情 |
学习率 |
1e-05 |
训练批次大小 |
16 |
评估批次大小 |
8 |
随机种子 |
42 |
优化器 |
Adam(betas=(0.9, 0.999),epsilon=1e-08) |
学习率调度器类型 |
线性 |
学习率调度器热身步数 |
500 |
训练步数 |
4000 |
混合精度训练 |
原生AMP |
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
字错误率(Wer) |
0.1223 |
1.6 |
1000 |
0.3187 |
24.4415 |
0.0501 |
3.2 |
2000 |
0.3123 |
20.9720 |
0.0226 |
4.8 |
3000 |
0.3010 |
19.6183 |
0.001 |
6.4 |
4000 |
0.3123 |
18.9229 |
框架版本
- Transformers 4.45.2
- Pytorch 2.4.1+cu121
- Datasets 3.0.1
- Tokenizers 0.20.1
📄 许可证
本项目采用MIT许可证。