🚀 XLS - R - 300M - 阿拉伯語語音識別模型
本模型是基於自動語音識別技術的模型,它在MOZILLA - FOUNDATION/COMMON_VOICE_7_0 - AR數據集上對[facebook/wav2vec2 - xls - r - 300m](https://huggingface.co/facebook/wav2vec2 - xls - r - 300m)進行微調,可用於阿拉伯語的自動語音識別任務。
🚀 快速開始
本模型是[facebook/wav2vec2 - xls - r - 300m](https://huggingface.co/facebook/wav2vec2 - xls - r - 300m)在MOZILLA - FOUNDATION/COMMON_VOICE_7_0 - AR數據集上的微調版本。它在評估集上取得了以下結果:
- 損失值:0.4502
- 詞錯誤率(Wer):0.4783
📚 詳細文檔
模型信息
屬性 |
詳情 |
支持語言 |
阿拉伯語 |
許可證 |
Apache - 2.0 |
標籤 |
ar、自動語音識別、由訓練器生成、hf - asr - leaderboard、mozilla - foundation/common_voice_7_0、robust - speech - event |
數據集 |
mozilla - foundation/common_voice_7_0 |
模型評估結果
模型名為XLS - R - 300M - Arabic,在不同數據集上的自動語音識別任務中取得了如下結果:
- Common Voice 7數據集:
- 測試詞錯誤率(Test WER):47.54
- 測試字符錯誤率(Test CER):17.64
- Robust Speech Event - Dev Data數據集:
- Robust Speech Event - Test Data數據集:
訓練過程
訓練超參數
訓練過程中使用了以下超參數:
- 學習率(learning_rate):7.5e - 05
- 訓練批次大小(train_batch_size):8
- 評估批次大小(eval_batch_size):8
- 隨機種子(seed):42
- 梯度累積步數(gradient_accumulation_steps):4
- 總訓練批次大小(total_train_batch_size):32
- 優化器(optimizer):Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08)
- 學習率調度器類型(lr_scheduler_type):線性
- 學習率調度器熱身步數(lr_scheduler_warmup_steps):2000
- 訓練輪數(num_epochs):5.0
- 混合精度訓練(mixed_precision_training):Native AMP
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
詞錯誤率(Wer) |
4.7972 |
0.43 |
500 |
5.1401 |
1.0 |
3.3241 |
0.86 |
1000 |
3.3220 |
1.0 |
3.1432 |
1.29 |
1500 |
3.0806 |
0.9999 |
2.9297 |
1.72 |
2000 |
2.5678 |
1.0057 |
2.2593 |
2.14 |
2500 |
1.1068 |
0.8218 |
2.0504 |
2.57 |
3000 |
0.7878 |
0.7114 |
1.937 |
3.0 |
3500 |
0.6955 |
0.6450 |
1.8491 |
3.43 |
4000 |
0.6452 |
0.6304 |
1.803 |
3.86 |
4500 |
0.5961 |
0.6042 |
1.7545 |
4.29 |
5000 |
0.5550 |
0.5748 |
1.7045 |
4.72 |
5500 |
0.5374 |
0.5743 |
1.6733 |
5.15 |
6000 |
0.5337 |
0.5404 |
1.6761 |
5.57 |
6500 |
0.5054 |
0.5266 |
1.655 |
6.0 |
7000 |
0.4926 |
0.5243 |
1.6252 |
6.43 |
7500 |
0.4946 |
0.5183 |
1.6209 |
6.86 |
8000 |
0.4915 |
0.5194 |
1.5772 |
7.29 |
8500 |
0.4725 |
0.5104 |
1.5602 |
7.72 |
9000 |
0.4726 |
0.5097 |
1.5783 |
8.15 |
9500 |
0.4667 |
0.4956 |
1.5442 |
8.58 |
10000 |
0.4685 |
0.4937 |
1.5597 |
9.01 |
10500 |
0.4708 |
0.4957 |
1.5406 |
9.43 |
11000 |
0.4539 |
0.4810 |
1.5274 |
9.86 |
11500 |
0.4502 |
0.4783 |
框架版本
- Transformers:4.16.0.dev0
- Pytorch:1.10.1 + cu102
- Datasets:1.17.1.dev0
- Tokenizers:0.11.0
📄 許可證
本模型使用的是Apache - 2.0許可證。