🚀 W2V2-BERT-withLM-Malayalam
該模型是在 IMASC、MSC、OpenSLR Malayalam Train split、Festvox Malayalam、CV16 上對 facebook/w2v-bert-2.0 進行微調後的版本。它在語音識別任務中表現出色,為馬拉雅拉姆語的語音處理提供了有效的解決方案。
🚀 快速開始
此模型是一個經過微調的版本,基於 facebook/w2v-bert-2.0 在多個數據集上進行訓練。它在驗證集 OpenSLR-Test 上取得了以下結果:
- 損失值: 0.1722
- 字錯率 (Wer): 0.1299
此外,還使用 KENLM 庫在 kavyamanohar/ml-sentences 數據集上訓練了三元語言模型。
📚 詳細文檔
模型信息
屬性 |
詳情 |
基礎模型 |
facebook/w2v-bert-2.0 |
許可證 |
MIT |
評估指標 |
字錯率 (Wer) |
支持語言 |
馬拉雅拉姆語 (ml) |
任務類型 |
自動語音識別 |
模型表現
由 Bajiyo Baiju 和 Kavya Manohar 開發的 W2V2-BERT-withLM-Malayalam 模型在多個數據集上進行了評估,結果如下:
數據集名稱 |
數據集類型 |
配置 |
分割 |
參數 |
字錯率 (Wer) |
OpenSLR Malayalam -Test |
vrclc/openslr63 |
ml |
test |
ml |
18.23 |
Google Fleurs |
google/fleurs |
ml |
test |
ml |
31.92 |
Mozilla Common Voice |
mozilla-foundation/common_voice_16_1 |
ml |
test |
ml |
49.79 |
訓練和評估數據
訓練和評估使用了以下數據集:
- vrclc/festvox-iiith-ml
- vrclc/openslr63
- vrclc/imasc_slr
- mozilla-foundation/common_voice_17_0
- smcproject/MSC
- kavyamanohar/ml-sentences
- thennal/IMaSC
訓練過程
訓練超參數
在訓練過程中使用了以下超參數:
- 學習率: 5e-05
- 訓練批次大小: 16
- 評估批次大小: 8
- 隨機種子: 42
- 梯度累積步數: 2
- 總訓練批次大小: 32
- 優化器: Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08)
- 學習率調度器類型: 線性
- 學習率調度器熱身步數: 500
- 訓練輪數: 10
- 混合精度訓練: 原生自動混合精度 (Native AMP)
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
字錯率 (Wer) |
1.1416 |
0.46 |
600 |
0.3393 |
0.4616 |
0.1734 |
0.92 |
1200 |
0.2414 |
0.3493 |
0.1254 |
1.38 |
1800 |
0.2205 |
0.2963 |
0.1097 |
1.84 |
2400 |
0.2157 |
0.3133 |
0.0923 |
2.3 |
3000 |
0.1854 |
0.2473 |
0.0792 |
2.76 |
3600 |
0.1939 |
0.2471 |
0.0696 |
3.22 |
4200 |
0.1720 |
0.2282 |
0.0589 |
3.68 |
4800 |
0.1768 |
0.2013 |
0.0552 |
4.14 |
5400 |
0.1635 |
0.1864 |
0.0437 |
4.6 |
6000 |
0.1501 |
0.1826 |
0.0408 |
5.06 |
6600 |
0.1500 |
0.1645 |
0.0314 |
5.52 |
7200 |
0.1559 |
0.1655 |
0.0317 |
5.98 |
7800 |
0.1448 |
0.1553 |
0.022 |
6.44 |
8400 |
0.1592 |
0.1590 |
0.0218 |
6.9 |
9000 |
0.1431 |
0.1458 |
0.0154 |
7.36 |
9600 |
0.1514 |
0.1366 |
0.0141 |
7.82 |
10200 |
0.1540 |
0.1383 |
0.0113 |
8.28 |
10800 |
0.1558 |
0.1391 |
0.0085 |
8.74 |
11400 |
0.1612 |
0.1356 |
0.0072 |
9.2 |
12000 |
0.1697 |
0.1289 |
0.0046 |
9.66 |
12600 |
0.1722 |
0.1299 |
框架版本
- Transformers 4.39.3
- Pytorch 2.1.1+cu121
- Datasets 2.16.1
- Tokenizers 0.15.1
📄 許可證
本模型使用 MIT 許可證。