🚀 convnext_manuscript_iiif
本模型是 facebook/convnext-base-224-22k 在 davanstrien/iiif_manuscripts_label_ge_50 數據集上的微調版本。它在評估集上取得了以下結果:
🚀 快速開始
該模型為圖像分類任務提供了基於預訓練模型的微調解決方案,可在特定數據集上進行優化。
📚 詳細文檔
模型描述
此模型基於預訓練的 facebook/convnext-base-224-22k
模型,在特定的手稿圖像數據集上進行了微調。不過,目前關於模型的更多詳細信息有待補充。
預期用途與限制
目前關於該模型的預期用途和限制的詳細信息還未提供,後續可進一步完善。
訓練和評估數據
目前關於訓練和評估數據的詳細信息還未提供,後續可進一步補充。
訓練過程
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:0.0002
- 訓練批次大小:64
- 評估批次大小:64
- 隨機種子:1337
- 優化器:Adam(β1=0.9,β2=0.999,ε=1e-08)
- 學習率調度器類型:線性
- 訓練輪數:30.0
- 混合精度訓練:原生自動混合精度(Native AMP)
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
F1 值 |
6.5753 |
1.0 |
2038 |
6.4121 |
0.0016 |
5.9865 |
2.0 |
4076 |
5.9466 |
0.0021 |
5.6521 |
3.0 |
6114 |
5.7645 |
0.0029 |
5.3123 |
4.0 |
8152 |
5.6890 |
0.0033 |
5.0337 |
5.0 |
10190 |
5.6692 |
0.0034 |
4.743 |
6.0 |
12228 |
5.5856 |
0.0037 |
4.4387 |
7.0 |
14266 |
5.5969 |
0.0042 |
4.1422 |
8.0 |
16304 |
5.6711 |
0.0043 |
3.8372 |
9.0 |
18342 |
5.6761 |
0.0044 |
3.5244 |
10.0 |
20380 |
5.8469 |
0.0042 |
3.2321 |
11.0 |
22418 |
5.8774 |
0.0045 |
2.9004 |
12.0 |
24456 |
6.1186 |
0.0047 |
2.5937 |
13.0 |
26494 |
6.2398 |
0.0046 |
2.2983 |
14.0 |
28532 |
6.3732 |
0.0049 |
2.0611 |
15.0 |
30570 |
6.5024 |
0.0045 |
1.8153 |
16.0 |
32608 |
6.6585 |
0.0047 |
1.6075 |
17.0 |
34646 |
6.8333 |
0.0043 |
1.4342 |
18.0 |
36684 |
6.9529 |
0.0044 |
1.2614 |
19.0 |
38722 |
7.1129 |
0.0046 |
1.1463 |
20.0 |
40760 |
7.1977 |
0.0039 |
1.0387 |
21.0 |
42798 |
7.2700 |
0.0044 |
0.9635 |
22.0 |
44836 |
7.3375 |
0.0040 |
0.8872 |
23.0 |
46874 |
7.4003 |
0.0039 |
0.8156 |
24.0 |
48912 |
7.4884 |
0.0039 |
0.7544 |
25.0 |
50950 |
7.4764 |
0.0039 |
0.6893 |
26.0 |
52988 |
7.5153 |
0.0042 |
0.6767 |
27.0 |
55026 |
7.5427 |
0.0043 |
0.6098 |
28.0 |
57064 |
7.5547 |
0.0042 |
0.5871 |
29.0 |
59102 |
7.5533 |
0.0041 |
0.5696 |
30.0 |
61140 |
7.5595 |
0.0041 |
框架版本
- Transformers 4.18.0.dev0
- Pytorch 1.10.2+cu102
- Datasets 1.18.3
- Tokenizers 0.11.6
📄 許可證
本模型使用 Apache-2.0 許可證。