🚀 wac2vec-lllfantomlll
このモデルは、facebook/wav2vec2-base をNoneデータセットでファインチューニングしたバージョンです。評価セットでは以下の結果を達成しています。
- 損失: 0.5560
- 単語誤り率 (Wer): 0.3417
🚀 クイックスタート
このモデルは音声関連のタスクに使用できます。具体的な使用方法は、Hugging Faceのライブラリを用いてモデルをロードしてから、音声データに適用することです。
📚 ドキュメント
モデルの説明
このモデルは、facebookのwav2vec2-baseモデルをベースにしています。Noneデータセットでファインチューニングされ、特定の音声タスクに最適化されています。
想定される用途と制限
想定される用途や制限に関する詳細な情報は、今後の更新で提供される予定です。
学習と評価データ
学習と評価に使用されたデータに関する詳細な情報は、今後の更新で提供される予定です。
学習手順
学習ハイパーパラメータ
学習中に使用されたハイパーパラメータは以下の通りです。
- 学習率 (learning_rate): 0.0001
- 学習バッチサイズ (train_batch_size): 8
- 評価バッチサイズ (eval_batch_size): 8
- 乱数シード (seed): 42
- オプティマイザ (optimizer): Adam (betas=(0.9,0.999), epsilon=1e-08)
- 学習率スケジューラの種類 (lr_scheduler_type): linear
- 学習率スケジューラのウォームアップステップ (lr_scheduler_warmup_steps): 1000
- エポック数 (num_epochs): 30
- 混合精度学習 (mixed_precision_training): Native AMP
学習結果
学習損失 |
エポック |
ステップ |
検証損失 |
単語誤り率 (Wer) |
3.5768 |
1.0 |
500 |
2.0283 |
1.0238 |
0.9219 |
2.01 |
1000 |
0.5103 |
0.5022 |
0.4497 |
3.01 |
1500 |
0.4746 |
0.4669 |
0.3163 |
4.02 |
2000 |
0.4144 |
0.4229 |
0.2374 |
5.02 |
2500 |
0.4186 |
0.4161 |
0.2033 |
6.02 |
3000 |
0.4115 |
0.3975 |
0.1603 |
7.03 |
3500 |
0.4424 |
0.3817 |
0.1455 |
8.03 |
4000 |
0.4151 |
0.3918 |
0.1276 |
9.04 |
4500 |
0.4940 |
0.3798 |
0.108 |
10.04 |
5000 |
0.4580 |
0.3688 |
0.1053 |
11.04 |
5500 |
0.4243 |
0.3700 |
0.0929 |
12.05 |
6000 |
0.4999 |
0.3727 |
0.0896 |
13.05 |
6500 |
0.4991 |
0.3624 |
0.0748 |
14.06 |
7000 |
0.4924 |
0.3602 |
0.0681 |
15.06 |
7500 |
0.4908 |
0.3544 |
0.0619 |
16.06 |
8000 |
0.5021 |
0.3559 |
0.0569 |
17.07 |
8500 |
0.5448 |
0.3518 |
0.0549 |
18.07 |
9000 |
0.4919 |
0.3508 |
0.0478 |
19.08 |
9500 |
0.4704 |
0.3513 |
0.0437 |
20.08 |
10000 |
0.5058 |
0.3555 |
0.0421 |
21.08 |
10500 |
0.5127 |
0.3489 |
0.0362 |
22.09 |
11000 |
0.5439 |
0.3527 |
0.0322 |
23.09 |
11500 |
0.5418 |
0.3469 |
0.0327 |
24.1 |
12000 |
0.5298 |
0.3422 |
0.0292 |
25.1 |
12500 |
0.5511 |
0.3426 |
0.0246 |
26.1 |
13000 |
0.5349 |
0.3472 |
0.0251 |
27.11 |
13500 |
0.5646 |
0.3391 |
0.0214 |
28.11 |
14000 |
0.5821 |
0.3424 |
0.0217 |
29.12 |
14500 |
0.5560 |
0.3417 |
フレームワークのバージョン
- Transformers 4.17.0
- Pytorch 1.11.0+cu113
- Datasets 1.18.3
- Tokenizers 0.12.1
📄 ライセンス
このモデルはApache-2.0ライセンスの下で提供されています。