🚀 wav2vec2-large-xls-r-300m-spanish-small
该模型是在通用语音(common_voice)数据集上对 jhonparra18/wav2vec2-large-xls-r-300m-spanish-custom 进行微调后的版本。它在评估集上取得了以下结果:
- 损失率(Loss):0.3596
- 词错误率(Wer):0.2105
🚀 快速开始
此部分暂未提供快速开始的相关内容。
✨ 主要特性
此模型基于微调,在通用语音数据集上进行训练,能在评估集上达到一定的损失率和词错误率指标。
📚 详细文档
训练和评估数据
此部分需要更多信息。
模型描述
此部分需要更多信息。
预期用途与限制
此部分需要更多信息。
🔧 技术细节
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率(learning_rate):0.0003
- 训练批次大小(train_batch_size):8
- 评估批次大小(eval_batch_size):8
- 随机种子(seed):42
- 梯度累积步数(gradient_accumulation_steps):2
- 总训练批次大小(total_train_batch_size):16
- 优化器(optimizer):Adam,其中 betas=(0.9, 0.999),epsilon=1e-08
- 学习率调度器类型(lr_scheduler_type):线性
- 学习率调度器热身步数(lr_scheduler_warmup_steps):500
- 训练轮数(num_epochs):30
- 混合精度训练(mixed_precision_training):原生自动混合精度(Native AMP)
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
词错误率 |
0.1971 |
0.79 |
400 |
0.2169 |
0.2077 |
0.2293 |
1.58 |
800 |
0.2507 |
0.2418 |
0.2065 |
2.37 |
1200 |
0.2703 |
0.2459 |
0.1842 |
3.16 |
1600 |
0.2716 |
0.2495 |
0.1634 |
3.95 |
2000 |
0.2695 |
0.2510 |
0.1443 |
4.74 |
2400 |
0.2754 |
0.2435 |
0.1345 |
5.53 |
2800 |
0.3119 |
0.2654 |
0.1267 |
6.32 |
3200 |
0.3154 |
0.2573 |
0.1237 |
7.11 |
3600 |
0.3251 |
0.2666 |
0.1118 |
7.91 |
4000 |
0.3139 |
0.2503 |
0.1051 |
8.7 |
4400 |
0.3286 |
0.2573 |
0.0964 |
9.49 |
4800 |
0.3348 |
0.2587 |
0.0946 |
10.28 |
5200 |
0.3357 |
0.2587 |
0.0897 |
11.07 |
5600 |
0.3408 |
0.2590 |
0.0812 |
11.86 |
6000 |
0.3380 |
0.2560 |
0.079 |
12.65 |
6400 |
0.3304 |
0.2415 |
0.0753 |
13.44 |
6800 |
0.3557 |
0.2540 |
0.0717 |
14.23 |
7200 |
0.3507 |
0.2519 |
0.0691 |
15.02 |
7600 |
0.3554 |
0.2587 |
0.0626 |
15.81 |
8000 |
0.3619 |
0.2520 |
0.0661 |
16.6 |
8400 |
0.3609 |
0.2564 |
0.0582 |
17.39 |
8800 |
0.3818 |
0.2520 |
0.0556 |
18.18 |
9200 |
0.3685 |
0.2410 |
0.0515 |
18.97 |
9600 |
0.3658 |
0.2367 |
0.0478 |
19.76 |
10000 |
0.3701 |
0.2413 |
0.0486 |
20.55 |
10400 |
0.3681 |
0.2371 |
0.0468 |
21.34 |
10800 |
0.3607 |
0.2370 |
0.0452 |
22.13 |
11200 |
0.3499 |
0.2286 |
0.0399 |
22.92 |
11600 |
0.3647 |
0.2282 |
0.0393 |
23.72 |
12000 |
0.3638 |
0.2255 |
0.0381 |
24.51 |
12400 |
0.3359 |
0.2202 |
0.0332 |
25.3 |
12800 |
0.3488 |
0.2177 |
0.033 |
26.09 |
13200 |
0.3628 |
0.2175 |
0.0311 |
26.88 |
13600 |
0.3695 |
0.2195 |
0.0294 |
27.67 |
14000 |
0.3624 |
0.2164 |
0.0281 |
28.46 |
14400 |
0.3688 |
0.2113 |
0.0274 |
29.25 |
14800 |
0.3596 |
0.2105 |
框架版本
- Transformers 4.16.0.dev0
- Pytorch 1.10.1+cu102
- Datasets 1.17.1.dev0
- Tokenizers 0.11.0
📄 许可证
此部分未提及许可证相关信息。