🚀 vit_Liveness_detection_v1.0
このモデルは、Transformerライブラリをベースにした顔のライブネス検出モデルです。未知のデータセットで google/vit-base-patch16-224 をファインチューニングし、評価セットで優れた性能を発揮しています。

🚀 クイックスタート
このモデルは、google/vit-base-patch16-224 を未知のデータセットでファインチューニングしたものです。評価セットでは以下の結果を得ています。
- 損失値:0.0047
- 正解率:0.9988
- F1値:0.9988
- 再現率:0.9988
- 適合率:0.9988
📚 ドキュメント
モデルの説明
詳細は後日追加予定です。
想定される用途と制限
詳細は後日追加予定です。
訓練と評価データ
詳細は後日追加予定です。
🔧 技術詳細
訓練過程
訓練ハイパーパラメータ
訓練時には以下のハイパーパラメータを使用しました。
- 学習率:5e-05
- 訓練バッチサイズ:128
- 評価バッチサイズ:8
- 乱数シード:42
- オプティマイザ:Adam(β1=0.9,β2=0.999,ε=1e-08)
- 学習率スケジューラタイプ:線形
- 訓練エポック数:5
- 混合精度訓練:ネイティブ自動混合精度(Native AMP)
訓練結果
訓練損失 |
エポック数 |
ステップ数 |
検証損失 |
正解率 |
F1値 |
再現率 |
適合率 |
0.0254 |
0.2048 |
128 |
0.0148 |
0.9946 |
0.9946 |
0.9946 |
0.9946 |
0.0256 |
0.4096 |
256 |
0.0180 |
0.9945 |
0.9944 |
0.9945 |
0.9945 |
0.0113 |
0.6144 |
384 |
0.0133 |
0.9955 |
0.9955 |
0.9955 |
0.9955 |
0.0116 |
0.8192 |
512 |
0.0070 |
0.9976 |
0.9976 |
0.9976 |
0.9976 |
0.0084 |
1.024 |
640 |
0.0072 |
0.9976 |
0.9976 |
0.9976 |
0.9976 |
0.0048 |
1.2288 |
768 |
0.0084 |
0.9976 |
0.9976 |
0.9976 |
0.9976 |
0.0041 |
1.4336 |
896 |
0.0078 |
0.9975 |
0.9975 |
0.9975 |
0.9975 |
0.0015 |
1.6384 |
1024 |
0.0049 |
0.9983 |
0.9983 |
0.9983 |
0.9983 |
0.0047 |
1.8432 |
1152 |
0.0068 |
0.9977 |
0.9977 |
0.9977 |
0.9977 |
0.0012 |
2.048 |
1280 |
0.0075 |
0.9975 |
0.9975 |
0.9975 |
0.9975 |
0.0025 |
2.2528 |
1408 |
0.0095 |
0.9971 |
0.9971 |
0.9971 |
0.9971 |
0.0013 |
2.4576 |
1536 |
0.0084 |
0.9976 |
0.9976 |
0.9976 |
0.9976 |
0.0026 |
2.6624 |
1664 |
0.0056 |
0.9985 |
0.9985 |
0.9985 |
0.9985 |
0.0001 |
2.8672 |
1792 |
0.0096 |
0.9976 |
0.9976 |
0.9976 |
0.9976 |
0.0001 |
3.072 |
1920 |
0.0049 |
0.9987 |
0.9987 |
0.9987 |
0.9987 |
0.0009 |
3.2768 |
2048 |
0.0085 |
0.9978 |
0.9978 |
0.9978 |
0.9978 |
0.0003 |
3.4816 |
2176 |
0.0078 |
0.9980 |
0.9980 |
0.9980 |
0.9980 |
0.0002 |
3.6864 |
2304 |
0.0057 |
0.9985 |
0.9985 |
0.9985 |
0.9985 |
0.0 |
3.8912 |
2432 |
0.0043 |
0.9988 |
0.9988 |
0.9988 |
0.9988 |
0.0 |
4.096 |
2560 |
0.0046 |
0.9987 |
0.9987 |
0.9987 |
0.9987 |
0.0 |
4.3008 |
2688 |
0.0045 |
0.9988 |
0.9988 |
0.9988 |
0.9988 |
0.0 |
4.5056 |
2816 |
0.0046 |
0.9988 |
0.9988 |
0.9988 |
0.9988 |
0.0 |
4.7104 |
2944 |
0.0047 |
0.9988 |
0.9988 |
0.9988 |
0.9988 |
0.0 |
4.9152 |
3072 |
0.0047 |
0.9988 |
0.9988 |
0.9988 |
0.9988 |
フレームワークバージョン
- Transformers 4.44.2
- Pytorch 2.4.1+cu121
- Datasets 3.2.0
- Tokenizers 0.19.1
📄 ライセンス
このプロジェクトは、Apache-2.0ライセンスの下で提供されています。