🚀 孟加拉语音模型(bangla_voice)
本模型是基于Transformer训练器自动生成的。它是 iftekher/bangla_voice 在无特定数据集上微调后的版本。在评估集上,该模型取得了如下结果:
- 损失值(Loss):208.2614
- 字错率(Wer):0.3201
🚀 快速开始
本模型是 iftekher/bangla_voice 在无特定数据集上的微调版本。它在评估集上有特定的损失值和字错率表现。
📚 详细文档
模型描述
此模型是 iftekher/bangla_voice 的微调版本,在评估集上有相应的损失值和字错率结果。不过更多详细信息有待补充。
预期用途与限制
更多相关信息有待补充。
训练和评估数据
更多相关信息有待补充。
训练过程
训练超参数
训练过程中使用了以下超参数:
属性 |
详情 |
学习率(learning_rate) |
0.0001 |
训练批次大小(train_batch_size) |
16 |
评估批次大小(eval_batch_size) |
8 |
随机种子(seed) |
42 |
优化器(optimizer) |
Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08) |
学习率调度器类型(lr_scheduler_type) |
线性(linear) |
学习率调度器预热步数(lr_scheduler_warmup_steps) |
100 |
训练轮数(num_epochs) |
5 |
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
字错率(Wer) |
158.927 |
0.21 |
100 |
81.4025 |
0.3489 |
206.3938 |
0.42 |
200 |
117.4497 |
0.3680 |
194.8868 |
0.64 |
300 |
473.2094 |
0.3622 |
177.3037 |
0.85 |
400 |
81.0834 |
0.3585 |
150.9285 |
1.06 |
500 |
397.6080 |
0.3592 |
164.899 |
1.27 |
600 |
71.5732 |
0.3476 |
157.9872 |
1.48 |
700 |
76.6225 |
0.3560 |
139.5956 |
1.69 |
800 |
76.4330 |
0.3512 |
132.7378 |
1.91 |
900 |
154.8127 |
0.3378 |
137.2875 |
2.12 |
1000 |
275.6554 |
0.3453 |
128.1135 |
2.33 |
1100 |
210.1160 |
0.3409 |
124.5749 |
2.54 |
1200 |
109.8560 |
0.3400 |
115.9728 |
2.75 |
1300 |
165.5507 |
0.3373 |
120.9464 |
2.97 |
1400 |
248.8096 |
0.3357 |
104.8963 |
3.18 |
1500 |
308.7221 |
0.3361 |
115.9144 |
3.39 |
1600 |
214.0615 |
0.3300 |
109.0966 |
3.6 |
1700 |
197.1803 |
0.3286 |
111.4354 |
3.81 |
1800 |
189.1278 |
0.3245 |
111.9318 |
4.03 |
1900 |
191.4921 |
0.3282 |
109.2148 |
4.24 |
2000 |
185.1797 |
0.3298 |
114.0561 |
4.45 |
2100 |
190.5829 |
0.3229 |
105.7045 |
4.66 |
2200 |
209.0799 |
0.3220 |
127.4207 |
4.87 |
2300 |
208.2614 |
0.3201 |
框架版本
- Transformers 4.11.3
- Pytorch 1.10.0+cu111
- Datasets 1.13.3
- Tokenizers 0.10.3