🚀 wav2vec2-base-timit-demo-google-colab
该模型是在None数据集上对facebook/wav2vec2-base进行微调后的版本。它在评估集上取得了以下结果:
- 损失值:0.5112
- 字错率(Wer):0.9988
🚀 快速开始
暂未提供相关快速开始的内容。
✨ 主要特性
暂未提供相关主要特性的内容。
📦 安装指南
暂未提供相关安装指南的内容。
💻 使用示例
暂未提供相关使用示例的内容。
📚 详细文档
模型描述
需要更多信息。
预期用途与限制
需要更多信息。
训练和评估数据
需要更多信息。
训练过程
训练超参数
训练期间使用了以下超参数:
- 学习率:0.0001
- 训练批次大小:8
- 评估批次大小:8
- 随机种子:42
- 优化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08)
- 学习率调度器类型:线性
- 学习率调度器热身步数:1000
- 训练轮数:30
- 混合精度训练:原生自动混合精度(Native AMP)
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
字错率(Wer) |
3.5557 |
1.0 |
500 |
1.6786 |
1.0 |
0.8407 |
2.01 |
1000 |
0.5356 |
0.9988 |
0.4297 |
3.01 |
1500 |
0.4431 |
0.9988 |
0.2989 |
4.02 |
2000 |
0.4191 |
0.9988 |
0.2338 |
5.02 |
2500 |
0.4251 |
0.9988 |
0.1993 |
6.02 |
3000 |
0.4618 |
0.9988 |
0.1585 |
7.03 |
3500 |
0.4577 |
0.9988 |
0.1386 |
8.03 |
4000 |
0.4099 |
0.9982 |
0.1234 |
9.04 |
4500 |
0.4945 |
0.9988 |
0.1162 |
10.04 |
5000 |
0.4597 |
0.9988 |
0.1008 |
11.04 |
5500 |
0.4563 |
0.9988 |
0.0894 |
12.05 |
6000 |
0.5157 |
0.9988 |
0.083 |
13.05 |
6500 |
0.5027 |
0.9988 |
0.0735 |
14.06 |
7000 |
0.4905 |
0.9994 |
0.0686 |
15.06 |
7500 |
0.4552 |
0.9988 |
0.0632 |
16.06 |
8000 |
0.5522 |
0.9988 |
0.061 |
17.07 |
8500 |
0.4874 |
0.9988 |
0.0626 |
18.07 |
9000 |
0.5243 |
0.9988 |
0.0475 |
19.08 |
9500 |
0.4798 |
0.9988 |
0.0447 |
20.08 |
10000 |
0.5250 |
0.9988 |
0.0432 |
21.08 |
10500 |
0.5195 |
0.9988 |
0.0358 |
22.09 |
11000 |
0.5008 |
0.9988 |
0.0319 |
23.09 |
11500 |
0.5376 |
0.9988 |
0.0334 |
24.1 |
12000 |
0.5149 |
0.9988 |
0.0269 |
25.1 |
12500 |
0.4911 |
0.9988 |
0.0275 |
26.1 |
13000 |
0.4907 |
0.9988 |
0.027 |
27.11 |
13500 |
0.4992 |
0.9988 |
0.0239 |
28.11 |
14000 |
0.5021 |
0.9988 |
0.0233 |
29.12 |
14500 |
0.5112 |
0.9988 |
框架版本
- Transformers 4.17.0
- Pytorch 1.11.0+cu113
- Datasets 1.18.3
- Tokenizers 0.12.1
🔧 技术细节
暂未提供相关技术细节的内容。
📄 许可证
本模型使用的许可证为Apache-2.0。