🚀 Project_NLP
本模型是在None数据集上对facebook/wav2vec2-base进行微调后的版本。它在评估集上取得了以下结果:
- 损失值(Loss):0.5324
- 字错率(Wer):0.3355
📦 安装指南
原文档未提及安装步骤,此部分跳过。
💻 使用示例
原文档未提供代码示例,此部分跳过。
📚 详细文档
模型描述
需要更多信息。
预期用途与限制
需要更多信息。
训练和评估数据
需要更多信息。
训练过程
训练超参数
训练期间使用了以下超参数:
- 学习率(learning_rate):0.0001
- 训练批次大小(train_batch_size):8
- 评估批次大小(eval_batch_size):8
- 随机种子(seed):42
- 优化器(optimizer):Adam,其中betas=(0.9, 0.999),epsilon=1e - 08
- 学习率调度器类型(lr_scheduler_type):线性
- 学习率调度器热身步数(lr_scheduler_warmup_steps):1000
- 训练轮数(num_epochs):30
- 混合精度训练(mixed_precision_training):原生自动混合精度(Native AMP)
训练结果
训练损失值 |
轮数 |
步数 |
验证损失值 |
字错率 |
3.5697 |
1.0 |
500 |
2.1035 |
0.9979 |
0.8932 |
2.01 |
1000 |
0.5649 |
0.5621 |
0.4363 |
3.01 |
1500 |
0.4326 |
0.4612 |
0.3035 |
4.02 |
2000 |
0.4120 |
0.4191 |
0.2343 |
5.02 |
2500 |
0.4199 |
0.3985 |
0.1921 |
6.02 |
3000 |
0.4380 |
0.4043 |
0.1549 |
7.03 |
3500 |
0.4456 |
0.3925 |
0.1385 |
8.03 |
4000 |
0.4264 |
0.3871 |
0.1217 |
9.04 |
4500 |
0.4744 |
0.3774 |
0.1041 |
10.04 |
5000 |
0.4498 |
0.3745 |
0.0968 |
11.04 |
5500 |
0.4716 |
0.3628 |
0.0893 |
12.05 |
6000 |
0.4680 |
0.3764 |
0.078 |
13.05 |
6500 |
0.5100 |
0.3623 |
0.0704 |
14.06 |
7000 |
0.4893 |
0.3552 |
0.0659 |
15.06 |
7500 |
0.4956 |
0.3565 |
0.0578 |
16.06 |
8000 |
0.5450 |
0.3595 |
0.0563 |
17.07 |
8500 |
0.4891 |
0.3614 |
0.0557 |
18.07 |
9000 |
0.5307 |
0.3548 |
0.0447 |
19.08 |
9500 |
0.4923 |
0.3493 |
0.0456 |
20.08 |
10000 |
0.5156 |
0.3479 |
0.0407 |
21.08 |
10500 |
0.4979 |
0.3389 |
0.0354 |
22.09 |
11000 |
0.5549 |
0.3462 |
0.0322 |
23.09 |
11500 |
0.5601 |
0.3439 |
0.0342 |
24.1 |
12000 |
0.5131 |
0.3451 |
0.0276 |
25.1 |
12500 |
0.5206 |
0.3392 |
0.0245 |
26.1 |
13000 |
0.5337 |
0.3373 |
0.0226 |
27.11 |
13500 |
0.5311 |
0.3353 |
0.0229 |
28.11 |
14000 |
0.5375 |
0.3373 |
0.0225 |
29.12 |
14500 |
0.5324 |
0.3355 |
框架版本
- Transformers 4.17.0
- Pytorch 1.11.0+cu113
- Datasets 1.18.3
- Tokenizers 0.12.1
🔧 技术细节
原文档未提供具体的技术实现细节(少于50字),此部分跳过。
📄 许可证
本项目采用Apache 2.0许可证。