🚀 Akashpb13/Hausa_xlsr
這個模型是 facebook/wav2vec2-xls-r-300m 的微調版本。它在評估集(訓練數據集的 10% 與無效數據、報告數據、其他數據和開發數據集合並而成)上取得了以下結果:
- 損失:0.275118
- 詞錯誤率(Wer):0.329955
🚀 快速開始
評估命令
- 在
mozilla-foundation/common_voice_8_0
數據集的 test
分割上進行評估:
python eval.py --model_id Akashpb13/Hausa_xlsr --dataset mozilla-foundation/common_voice_8_0 --config ha --split test
✨ 主要特性
- 該模型基於
facebook/wav2vec2-xls-r-300m
進行微調,適用於豪薩語的自動語音識別任務。
- 在多個數據集上進行了評估,展示了良好的性能,如在 Common Voice 8 和 Robust Speech Event - Dev Data 數據集上的表現。
📚 詳細文檔
模型描述
對 "facebook/wav2vec2-xls-r-300m" 進行了微調。
預期用途與限制
更多信息待補充。
訓練和評估數據
- 訓練數據:Common voice 豪薩語的 train.tsv、dev.tsv、invalidated.tsv、reported.tsv 和 other.tsv。僅考慮那些贊成票多於反對票的點,並且在合併 Common voice 7.0 中給出的所有數據集後去除了重複項。
訓練過程
為創建訓練數據集,將所有可能的數據集進行了合併,並採用了 90 - 10 的分割。
訓練超參數
訓練期間使用了以下超參數:
- 學習率(learning_rate):0.000096
- 訓練批次大小(train_batch_size):16
- 評估批次大小(eval_batch_size):16
- 隨機種子(seed):13
- 梯度累積步數(gradient_accumulation_steps):2
- 學習率調度器類型(lr_scheduler_type):cosine_with_restarts
- 學習率調度器熱身步數(lr_scheduler_warmup_steps):500
- 訓練輪數(num_epochs):50
- 混合精度訓練(mixed_precision_training):Native AMP
訓練結果
步驟 |
訓練損失 |
驗證損失 |
詞錯誤率(Wer) |
500 |
5.175900 |
2.750914 |
1.000000 |
1000 |
1.028700 |
0.338649 |
0.497999 |
1500 |
0.332200 |
0.246896 |
0.402241 |
2000 |
0.227300 |
0.239640 |
0.395839 |
2500 |
0.175000 |
0.239577 |
0.373966 |
3000 |
0.140400 |
0.243272 |
0.356095 |
3500 |
0.119200 |
0.263761 |
0.365164 |
4000 |
0.099300 |
0.265954 |
0.353428 |
4500 |
0.084400 |
0.276367 |
0.349693 |
5000 |
0.073700 |
0.282631 |
0.343825 |
5500 |
0.068000 |
0.282344 |
0.341158 |
6000 |
0.064500 |
0.281591 |
0.342491 |
框架版本
- Transformers 4.16.0.dev0
- Pytorch 1.10.0+cu102
- Datasets 1.18.3
- Tokenizers 0.10.3
🔧 技術細節
模型評估指標
該模型在不同數據集上的評估結果如下:
任務 |
數據集 |
評估指標 |
值 |
自動語音識別 |
Common Voice 8 |
測試詞錯誤率(Test WER) |
0.20614541257934219 |
自動語音識別 |
Common Voice 8 |
測試字符錯誤率(Test CER) |
0.04358048053214061 |
自動語音識別 |
Robust Speech Event - Dev Data |
測試詞錯誤率(Test WER) |
0.20614541257934219 |
自動語音識別 |
Robust Speech Event - Dev Data |
測試字符錯誤率(Test CER) |
0.04358048053214061 |
📄 許可證
本模型採用 Apache-2.0 許可證。