🚀 結果模型
本模型是基於 facebook/wav2vec2-large-xlsr-53 在 None 數據集上進行微調的版本。它在評估集上取得了以下結果:
🚀 快速開始
此部分文檔未提供快速開始的相關內容,若需快速使用該模型,可參考後續訓練和評估數據、訓練過程等部分內容進行操作。
✨ 主要特性
- 該模型可處理烏爾都語音頻,並將其分類到以下類別中:
📦 安裝指南
文檔未提及安裝相關內容,若使用該模型,可根據其依賴的框架版本(如 Transformers 4.18.0、Pytorch 1.11.0 等)進行對應安裝。
📚 詳細文檔
訓練和評估數據
數據集可在以下鏈接獲取:
https://www.kaggle.com/datasets/kingabzpro/urdu-emotion-dataset
訓練過程
訓練代碼可在以下鏈接獲取:
https://www.kaggle.com/code/chtalhaanwar/urdu-emotions-hf
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:5e - 05
- 訓練批次大小:32
- 評估批次大小:32
- 隨機種子:42
- 優化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08)
- 學習率調度器類型:線性
- 訓練輪數:50
- 混合精度訓練:Native AMP
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
準確率 |
1.3838 |
1.0 |
10 |
1.3907 |
0.225 |
1.3732 |
2.0 |
20 |
1.3872 |
0.2125 |
1.3354 |
3.0 |
30 |
1.3116 |
0.6625 |
1.2689 |
4.0 |
40 |
1.1820 |
0.6375 |
1.1179 |
5.0 |
50 |
1.0075 |
0.7 |
0.9962 |
6.0 |
60 |
0.8707 |
0.7125 |
0.8842 |
7.0 |
70 |
0.7485 |
0.7625 |
0.786 |
8.0 |
80 |
0.6326 |
0.8 |
0.6757 |
9.0 |
90 |
0.5995 |
0.8 |
0.6104 |
10.0 |
100 |
0.4835 |
0.825 |
0.5821 |
11.0 |
110 |
0.3886 |
0.9 |
0.4721 |
12.0 |
120 |
0.3935 |
0.8625 |
0.3976 |
13.0 |
130 |
0.3020 |
0.925 |
0.4483 |
14.0 |
140 |
0.3171 |
0.9 |
0.2665 |
15.0 |
150 |
0.3016 |
0.9125 |
0.2119 |
16.0 |
160 |
0.2722 |
0.925 |
0.3376 |
17.0 |
170 |
0.3163 |
0.8875 |
0.1518 |
18.0 |
180 |
0.2681 |
0.9125 |
0.1559 |
19.0 |
190 |
0.3074 |
0.925 |
0.1031 |
20.0 |
200 |
0.3526 |
0.8875 |
0.1557 |
21.0 |
210 |
0.2254 |
0.9375 |
0.0846 |
22.0 |
220 |
0.2410 |
0.9375 |
0.0733 |
23.0 |
230 |
0.2369 |
0.925 |
0.0964 |
24.0 |
240 |
0.2273 |
0.9375 |
0.0574 |
25.0 |
250 |
0.2066 |
0.95 |
0.1113 |
26.0 |
260 |
0.2941 |
0.9125 |
0.1313 |
27.0 |
270 |
0.2715 |
0.925 |
0.0851 |
28.0 |
280 |
0.1725 |
0.9625 |
0.0402 |
29.0 |
290 |
0.2221 |
0.95 |
0.1075 |
30.0 |
300 |
0.2199 |
0.9625 |
0.0418 |
31.0 |
310 |
0.1699 |
0.95 |
0.1869 |
32.0 |
320 |
0.2287 |
0.9625 |
0.0637 |
33.0 |
330 |
0.3230 |
0.9125 |
0.0483 |
34.0 |
340 |
0.1602 |
0.975 |
0.0891 |
35.0 |
350 |
0.1615 |
0.975 |
0.0359 |
36.0 |
360 |
0.1571 |
0.975 |
0.1006 |
37.0 |
370 |
0.1809 |
0.9625 |
0.0417 |
38.0 |
380 |
0.1923 |
0.9625 |
0.0346 |
39.0 |
390 |
0.2035 |
0.9625 |
0.0417 |
40.0 |
400 |
0.1737 |
0.9625 |
0.0396 |
41.0 |
410 |
0.1833 |
0.9625 |
0.0202 |
42.0 |
420 |
0.1946 |
0.9625 |
0.0137 |
43.0 |
430 |
0.1785 |
0.9625 |
0.0214 |
44.0 |
440 |
0.1841 |
0.9625 |
0.0304 |
45.0 |
450 |
0.1690 |
0.9625 |
0.0199 |
46.0 |
460 |
0.1646 |
0.975 |
0.0122 |
47.0 |
470 |
0.1622 |
0.975 |
0.0324 |
48.0 |
480 |
0.1615 |
0.975 |
0.0269 |
49.0 |
490 |
0.1625 |
0.975 |
0.0245 |
50.0 |
500 |
0.1638 |
0.975 |
框架版本
- Transformers 4.18.0
- Pytorch 1.11.0
- Datasets 2.1.0
- Tokenizers 0.12.1
🔧 技術細節
文檔未提供更深入的技術細節內容,若需瞭解模型的具體技術實現,可參考訓練代碼鏈接中的代碼進行分析。
📄 許可證
本模型使用的許可證為 Apache - 2.0。