🚀 wav2vec2-base-timit-demo-google-colab
該模型是在None數據集上對facebook/wav2vec2-base進行微調後的版本。它在評估集上取得了以下結果:
- 損失值:0.5112
- 字錯率(Wer):0.9988
🚀 快速開始
暫未提供相關快速開始的內容。
✨ 主要特性
暫未提供相關主要特性的內容。
📦 安裝指南
暫未提供相關安裝指南的內容。
💻 使用示例
暫未提供相關使用示例的內容。
📚 詳細文檔
模型描述
需要更多信息。
預期用途與限制
需要更多信息。
訓練和評估數據
需要更多信息。
訓練過程
訓練超參數
訓練期間使用了以下超參數:
- 學習率:0.0001
- 訓練批次大小:8
- 評估批次大小:8
- 隨機種子:42
- 優化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08)
- 學習率調度器類型:線性
- 學習率調度器熱身步數:1000
- 訓練輪數:30
- 混合精度訓練:原生自動混合精度(Native AMP)
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
字錯率(Wer) |
3.5557 |
1.0 |
500 |
1.6786 |
1.0 |
0.8407 |
2.01 |
1000 |
0.5356 |
0.9988 |
0.4297 |
3.01 |
1500 |
0.4431 |
0.9988 |
0.2989 |
4.02 |
2000 |
0.4191 |
0.9988 |
0.2338 |
5.02 |
2500 |
0.4251 |
0.9988 |
0.1993 |
6.02 |
3000 |
0.4618 |
0.9988 |
0.1585 |
7.03 |
3500 |
0.4577 |
0.9988 |
0.1386 |
8.03 |
4000 |
0.4099 |
0.9982 |
0.1234 |
9.04 |
4500 |
0.4945 |
0.9988 |
0.1162 |
10.04 |
5000 |
0.4597 |
0.9988 |
0.1008 |
11.04 |
5500 |
0.4563 |
0.9988 |
0.0894 |
12.05 |
6000 |
0.5157 |
0.9988 |
0.083 |
13.05 |
6500 |
0.5027 |
0.9988 |
0.0735 |
14.06 |
7000 |
0.4905 |
0.9994 |
0.0686 |
15.06 |
7500 |
0.4552 |
0.9988 |
0.0632 |
16.06 |
8000 |
0.5522 |
0.9988 |
0.061 |
17.07 |
8500 |
0.4874 |
0.9988 |
0.0626 |
18.07 |
9000 |
0.5243 |
0.9988 |
0.0475 |
19.08 |
9500 |
0.4798 |
0.9988 |
0.0447 |
20.08 |
10000 |
0.5250 |
0.9988 |
0.0432 |
21.08 |
10500 |
0.5195 |
0.9988 |
0.0358 |
22.09 |
11000 |
0.5008 |
0.9988 |
0.0319 |
23.09 |
11500 |
0.5376 |
0.9988 |
0.0334 |
24.1 |
12000 |
0.5149 |
0.9988 |
0.0269 |
25.1 |
12500 |
0.4911 |
0.9988 |
0.0275 |
26.1 |
13000 |
0.4907 |
0.9988 |
0.027 |
27.11 |
13500 |
0.4992 |
0.9988 |
0.0239 |
28.11 |
14000 |
0.5021 |
0.9988 |
0.0233 |
29.12 |
14500 |
0.5112 |
0.9988 |
框架版本
- Transformers 4.17.0
- Pytorch 1.11.0+cu113
- Datasets 1.18.3
- Tokenizers 0.12.1
🔧 技術細節
暫未提供相關技術細節的內容。
📄 許可證
本模型使用的許可證為Apache-2.0。