🚀 convnext_manuscript_iiif
本模型是 facebook/convnext-base-224-22k 在 davanstrien/iiif_manuscripts_label_ge_50 数据集上的微调版本。它在评估集上取得了以下结果:
🚀 快速开始
该模型为图像分类任务提供了基于预训练模型的微调解决方案,可在特定数据集上进行优化。
📚 详细文档
模型描述
此模型基于预训练的 facebook/convnext-base-224-22k
模型,在特定的手稿图像数据集上进行了微调。不过,目前关于模型的更多详细信息有待补充。
预期用途与限制
目前关于该模型的预期用途和限制的详细信息还未提供,后续可进一步完善。
训练和评估数据
目前关于训练和评估数据的详细信息还未提供,后续可进一步补充。
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率:0.0002
- 训练批次大小:64
- 评估批次大小:64
- 随机种子:1337
- 优化器:Adam(β1=0.9,β2=0.999,ε=1e-08)
- 学习率调度器类型:线性
- 训练轮数:30.0
- 混合精度训练:原生自动混合精度(Native AMP)
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
F1 值 |
6.5753 |
1.0 |
2038 |
6.4121 |
0.0016 |
5.9865 |
2.0 |
4076 |
5.9466 |
0.0021 |
5.6521 |
3.0 |
6114 |
5.7645 |
0.0029 |
5.3123 |
4.0 |
8152 |
5.6890 |
0.0033 |
5.0337 |
5.0 |
10190 |
5.6692 |
0.0034 |
4.743 |
6.0 |
12228 |
5.5856 |
0.0037 |
4.4387 |
7.0 |
14266 |
5.5969 |
0.0042 |
4.1422 |
8.0 |
16304 |
5.6711 |
0.0043 |
3.8372 |
9.0 |
18342 |
5.6761 |
0.0044 |
3.5244 |
10.0 |
20380 |
5.8469 |
0.0042 |
3.2321 |
11.0 |
22418 |
5.8774 |
0.0045 |
2.9004 |
12.0 |
24456 |
6.1186 |
0.0047 |
2.5937 |
13.0 |
26494 |
6.2398 |
0.0046 |
2.2983 |
14.0 |
28532 |
6.3732 |
0.0049 |
2.0611 |
15.0 |
30570 |
6.5024 |
0.0045 |
1.8153 |
16.0 |
32608 |
6.6585 |
0.0047 |
1.6075 |
17.0 |
34646 |
6.8333 |
0.0043 |
1.4342 |
18.0 |
36684 |
6.9529 |
0.0044 |
1.2614 |
19.0 |
38722 |
7.1129 |
0.0046 |
1.1463 |
20.0 |
40760 |
7.1977 |
0.0039 |
1.0387 |
21.0 |
42798 |
7.2700 |
0.0044 |
0.9635 |
22.0 |
44836 |
7.3375 |
0.0040 |
0.8872 |
23.0 |
46874 |
7.4003 |
0.0039 |
0.8156 |
24.0 |
48912 |
7.4884 |
0.0039 |
0.7544 |
25.0 |
50950 |
7.4764 |
0.0039 |
0.6893 |
26.0 |
52988 |
7.5153 |
0.0042 |
0.6767 |
27.0 |
55026 |
7.5427 |
0.0043 |
0.6098 |
28.0 |
57064 |
7.5547 |
0.0042 |
0.5871 |
29.0 |
59102 |
7.5533 |
0.0041 |
0.5696 |
30.0 |
61140 |
7.5595 |
0.0041 |
框架版本
- Transformers 4.18.0.dev0
- Pytorch 1.10.2+cu102
- Datasets 1.18.3
- Tokenizers 0.11.6
📄 许可证
本模型使用 Apache-2.0 许可证。