🚀 wav2vec2-large-xls-r-300m-bg-d2
本模型是在MOZILLA - FOUNDATION/COMMON_VOICE_8_0 - BG数据集上对facebook/wav2vec2 - xls - r - 300m进行微调后的版本。它在评估集上取得了以下结果:
- 损失值:0.3421
- 词错误率(WER):0.2860
✨ 主要特性
- 支持保加利亚语(bg)的自动语音识别任务。
- 基于
wav2vec2-large-xls-r-300m
模型微调,在多个数据集上有较好的表现。
📚 详细文档
模型信息
属性 |
详情 |
支持语言 |
保加利亚语(bg) |
许可证 |
Apache-2.0 |
标签 |
自动语音识别、保加利亚语、由训练器生成、HF语音识别排行榜、mozilla - foundation/common_voice_8_0、鲁棒语音事件 |
数据集 |
mozilla - foundation/common_voice_8_0 |
评估结果
任务 |
数据集 |
测试WER |
测试CER |
自动语音识别 |
Common Voice 8 |
0.28775471338792613 |
0.06861971204625049 |
自动语音识别 |
鲁棒语音事件 - 开发数据 |
0.49783147459727384 |
0.1591062599627158 |
自动语音识别 |
鲁棒语音事件 - 测试数据 |
51.25 |
- |
评估命令
- 在
mozilla - foundation/common_voice_8_0
测试分割集上进行评估
python eval.py --model_id DrishtiSharma/wav2vec2-large-xls-r-300m-bg-d2 --dataset mozilla-foundation/common_voice_8_0 --config bg --split test --log_outputs
- 在
speech - recognition - community - v2/dev_data
上进行评估
python eval.py --model_id DrishtiSharma/wav2vec2-large-xls-r-300m-bg-d2 --dataset speech-recognition-community-v2/dev_data --config bg --split validation --chunk_length_s 10 --stride_length_s 1
训练超参数
- 学习率:0.00025
- 训练批次大小:16
- 评估批次大小:8
- 随机种子:42
- 梯度累积步数:2
- 总训练批次大小:32
- 优化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08)
- 学习率调度器类型:线性
- 学习率调度器热身步数:700
- 训练轮数:35
- 混合精度训练:原生自动混合精度(Native AMP)
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
词错误率(WER) |
6.8791 |
1.74 |
200 |
3.1902 |
1.0 |
3.0441 |
3.48 |
400 |
2.8098 |
0.9864 |
1.1499 |
5.22 |
600 |
0.4668 |
0.5014 |
0.4968 |
6.96 |
800 |
0.4162 |
0.4472 |
0.3553 |
8.7 |
1000 |
0.3580 |
0.3777 |
0.3027 |
10.43 |
1200 |
0.3422 |
0.3506 |
0.2562 |
12.17 |
1400 |
0.3556 |
0.3639 |
0.2272 |
13.91 |
1600 |
0.3621 |
0.3583 |
0.2125 |
15.65 |
1800 |
0.3436 |
0.3358 |
0.1904 |
17.39 |
2000 |
0.3650 |
0.3545 |
0.1695 |
19.13 |
2200 |
0.3366 |
0.3241 |
0.1532 |
20.87 |
2400 |
0.3550 |
0.3311 |
0.1453 |
22.61 |
2600 |
0.3582 |
0.3131 |
0.1359 |
24.35 |
2800 |
0.3524 |
0.3084 |
0.1233 |
26.09 |
3000 |
0.3503 |
0.2973 |
0.1114 |
27.83 |
3200 |
0.3434 |
0.2946 |
0.1051 |
29.57 |
3400 |
0.3474 |
0.2956 |
0.0965 |
31.3 |
3600 |
0.3426 |
0.2907 |
0.0923 |
33.04 |
3800 |
0.3478 |
0.2894 |
0.0894 |
34.78 |
4000 |
0.3421 |
0.2860 |
框架版本
- Transformers 4.16.2
- Pytorch 1.10.0 + cu111
- Datasets 1.18.3
- Tokenizers 0.11.0
📄 许可证
本模型使用Apache - 2.0许可证。