🚀 xls-r-1B-te模型
本模型是基於自動語音識別技術的模型,在OPENSLR_SLR66 - NA數據集上對facebook/wav2vec2-xls-r-1b進行微調得到,能有效提升語音識別的準確性。
🚀 快速開始
該模型是facebook/wav2vec2-xls-r-1b在OPENSLR_SLR66 - NA數據集上的微調版本。它在評估集上取得了以下結果:
- 損失值:0.3119
- 詞錯誤率(Wer):0.2613
評估指標
指標 |
劃分 |
是否使用語言模型解碼 |
值 |
詞錯誤率(WER) |
訓練集 |
否 |
5.36 |
字符錯誤率(CER) |
訓練集 |
否 |
1.11 |
詞錯誤率(WER) |
測試集 |
否 |
26.14 |
字符錯誤率(CER) |
測試集 |
否 |
4.93 |
詞錯誤率(WER) |
訓練集 |
是 |
5.04 |
字符錯誤率(CER) |
訓練集 |
是 |
1.07 |
詞錯誤率(WER) |
測試集 |
是 |
20.69 |
字符錯誤率(CER) |
測試集 |
是 |
3.986 |
📚 詳細文檔
模型信息
屬性 |
詳情 |
模型類型 |
自動語音識別 |
訓練數據 |
openslr、SLR66 |
評估指標 |
詞錯誤率(wer) |
模型索引
- 名稱:xls-r-1B-te
- 結果:
- 任務:
- 數據集:
- 類型:openslr
- 名稱:Open SLR
- 參數:SLR66
- 評估指標:
- 類型:wer
- 值:20.624
- 名稱:測試詞錯誤率(Test WER)
- 類型:cer
- 值:3.979
- 名稱:測試字符錯誤率(Test CER)
- 類型:wer
- 值:26.14777618364419
- 名稱:測試詞錯誤率(無語言模型)(Test WER (without LM))
- 類型:cer
- 值:4.932543184970369
- 名稱:測試字符錯誤率(無語言模型)(Test CER (without LM))
🔧 技術細節
訓練過程
訓練超參數
訓練期間使用了以下超參數:
- 學習率:2e - 05
- 訓練批次大小:16
- 評估批次大小:4
- 隨機種子:42
- 梯度累積步數:2
- 總訓練批次大小:32
- 優化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08)
- 學習率調度器類型:線性
- 學習率調度器熱身步數:2000
- 訓練輪數:150.0
- 混合精度訓練:原生自動混合精度(Native AMP)
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
詞錯誤率(Wer) |
2.9038 |
4.8 |
500 |
3.0125 |
1.0 |
1.3777 |
9.61 |
1000 |
0.8681 |
0.8753 |
1.1436 |
14.42 |
1500 |
0.6256 |
0.7961 |
1.0997 |
19.23 |
2000 |
0.5244 |
0.6875 |
1.0363 |
24.04 |
2500 |
0.4585 |
0.6276 |
0.7996 |
28.84 |
3000 |
0.4072 |
0.5295 |
0.825 |
33.65 |
3500 |
0.3590 |
0.5222 |
0.8018 |
38.46 |
4000 |
0.3678 |
0.4671 |
0.7545 |
43.27 |
4500 |
0.3474 |
0.3962 |
0.7375 |
48.08 |
5000 |
0.3224 |
0.3869 |
0.6198 |
52.88 |
5500 |
0.3233 |
0.3630 |
0.6608 |
57.69 |
6000 |
0.3029 |
0.3308 |
0.645 |
62.5 |
6500 |
0.3195 |
0.3722 |
0.5249 |
67.31 |
7000 |
0.3004 |
0.3202 |
0.4875 |
72.11 |
7500 |
0.2826 |
0.2992 |
0.5171 |
76.92 |
8000 |
0.2962 |
0.2976 |
0.4974 |
81.73 |
8500 |
0.2990 |
0.2933 |
0.4387 |
86.54 |
9000 |
0.2834 |
0.2755 |
0.4511 |
91.34 |
9500 |
0.2886 |
0.2787 |
0.4112 |
96.15 |
10000 |
0.3093 |
0.2976 |
0.4064 |
100.96 |
10500 |
0.3123 |
0.2863 |
0.4047 |
105.77 |
11000 |
0.2968 |
0.2719 |
0.3519 |
110.57 |
11500 |
0.3106 |
0.2832 |
0.3719 |
115.38 |
12000 |
0.3030 |
0.2737 |
0.3669 |
120.19 |
12500 |
0.2964 |
0.2714 |
0.3386 |
125.0 |
13000 |
0.3101 |
0.2714 |
0.3137 |
129.8 |
13500 |
0.3063 |
0.2710 |
0.3008 |
134.61 |
14000 |
0.3082 |
0.2617 |
0.301 |
139.42 |
14500 |
0.3121 |
0.2628 |
0.3291 |
144.23 |
15000 |
0.3105 |
0.2612 |
0.3133 |
149.04 |
15500 |
0.3114 |
0.2624 |
框架版本
- Transformers 4.16.0.dev0
- Pytorch 1.10.1+cu102
- Datasets 1.17.1.dev0
- Tokenizers 0.11.0
📄 許可證
本模型採用Apache-2.0許可證。