🚀 segformer-b0-finetuned-segments-stamp-verification
本模型是基于nvidia/mit-b0在bilal01/stamp-verification数据集上进行微调的版本。它在邮票分割任务中表现出色,能够准确识别和分割图像中的邮票区域,为邮票管理和电商平台等场景提供了高效的解决方案。
🚀 快速开始
本模型是 nvidia/mit-b0 在 bilal01/stamp-verification 数据集上的微调版本。它在评估集上取得了以下结果:
- 损失值:0.0372
- 平均交并比(Mean Iou):0.1908
- 平均准确率:0.3817
- 整体准确率:0.3817
- 未标记准确率:nan
- 邮票准确率:0.3817
- 未标记交并比:0.0
- 邮票交并比:0.3817
✨ 主要特性
StampSegNet 是一个语义分割模型,在专门为邮票分割设计的自定义数据集上进行了微调。它基于强大的 Hugging Face 框架,利用深度学习技术准确、高效地从图像中分割邮票。
该模型经过训练,能够识别和分类图像的不同区域,判断其是否属于邮票。通过利用对邮票特定特征(如复杂的设计、边框和独特的颜色)的理解,StampSegNet 能够生成像素级的分割图,突出显示图像中邮票的精确边界。
📦 安装指南
文档未提供安装步骤,故跳过此章节。
💻 使用示例
文档未提供代码示例,故跳过此章节。
📚 详细文档
预期用途和局限性
- 邮票收藏管理:StampSegNet 模型可供邮票收藏家和爱好者使用,以自动从图像中分割邮票。它通过准确识别和分离邮票,简化了邮票收藏的整理和编目过程,节省了时间和精力。
- 电子商务平台:面向邮票买卖双方的在线市场和拍卖平台可以集成 StampSegNet 模型,以提升用户体验。卖家可以轻松上传邮票图像,模型可以自动提取并显示分割后的邮票,方便潜在买家进行搜索、分类和估价。
虽然 StampSegNet 在邮票分割方面表现出高性能,但在邮票严重损坏或模糊、邮票形状异常或图像光照条件不佳的情况下,可能会遇到挑战。此外,与任何基于人工智能的模型一样,训练数据中存在的偏差可能会影响分割结果,因此需要仔细评估和缓解任何伦理问题。
训练和评估数据
使用的数据集来自 Kaggle,链接如下:
{dataset}(https://www.kaggle.com/datasets/rtatman/stamp-verification-staver-dataset)
我们使用了 60 个样本,并在 Segments.ai 上对它们进行了标注。
训练过程
数据收集和准备
- 收集多样化的邮票图像数据集以及相应的像素级标注,标注指示图像中邮票的区域。
- 确保数据集包含各种邮票设计、尺寸、颜色、背景和光照条件。
- 将数据集划分为训练集和验证集。
模型选择和配置
- 选择适合邮票分割任务的语义分割模型架构。
- 我们使用 nvidia/mit-b0 作为预训练模型并进行了微调。
- 配置模型架构和必要的超参数,如学习率、批量大小和优化器。
训练
- 使用初始化的权重在标注的邮票数据集上训练模型。
- 使用适合语义分割任务的损失函数,如交叉熵损失或 Dice 损失。
- 执行小批量随机梯度下降(SGD)或使用 Adam 等优化器更新模型参数。
- 通过计算像素准确率、平均交并比(IoU)或 F1 分数等指标来监控训练进度。
训练超参数
训练期间使用了以下超参数:
- 学习率:6e-05
- 训练批量大小:2
- 评估批量大小:2
- 随机种子:42
- 优化器:Adam,β=(0.9, 0.999),ε=1e-08
- 学习率调度器类型:线性
- 训练轮数:20
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
平均交并比 |
平均准确率 |
整体准确率 |
未标记准确率 |
邮票准确率 |
未标记交并比 |
邮票交并比 |
0.3384 |
0.83 |
20 |
0.2769 |
0.0335 |
0.0670 |
0.0670 |
nan |
0.0670 |
0.0 |
0.0670 |
0.2626 |
1.67 |
40 |
0.2201 |
0.1256 |
0.2512 |
0.2512 |
nan |
0.2512 |
0.0 |
0.2512 |
0.1944 |
2.5 |
60 |
0.1918 |
0.2030 |
0.4060 |
0.4060 |
nan |
0.4060 |
0.0 |
0.4060 |
0.2665 |
3.33 |
80 |
0.1564 |
0.1574 |
0.3148 |
0.3148 |
nan |
0.3148 |
0.0 |
0.3148 |
0.1351 |
4.17 |
100 |
0.1194 |
0.1817 |
0.3634 |
0.3634 |
nan |
0.3634 |
0.0 |
0.3634 |
0.1156 |
5.0 |
120 |
0.1035 |
0.1334 |
0.2668 |
0.2668 |
nan |
0.2668 |
0.0 |
0.2668 |
0.1103 |
5.83 |
140 |
0.0895 |
0.1819 |
0.3638 |
0.3638 |
nan |
0.3638 |
0.0 |
0.3638 |
0.0882 |
6.67 |
160 |
0.0746 |
0.0833 |
0.1665 |
0.1665 |
nan |
0.1665 |
0.0 |
0.1665 |
0.0778 |
7.5 |
180 |
0.0655 |
0.1927 |
0.3854 |
0.3854 |
nan |
0.3854 |
0.0 |
0.3854 |
0.0672 |
8.33 |
200 |
0.0585 |
0.1327 |
0.2654 |
0.2654 |
nan |
0.2654 |
0.0 |
0.2654 |
0.0612 |
9.17 |
220 |
0.0615 |
0.1640 |
0.3279 |
0.3279 |
nan |
0.3279 |
0.0 |
0.3279 |
0.0611 |
10.0 |
240 |
0.0546 |
0.2466 |
0.4933 |
0.4933 |
nan |
0.4933 |
0.0 |
0.4933 |
0.0537 |
10.83 |
260 |
0.0499 |
0.1129 |
0.2258 |
0.2258 |
nan |
0.2258 |
0.0 |
0.2258 |
0.0504 |
11.67 |
280 |
0.0502 |
0.1857 |
0.3713 |
0.3713 |
nan |
0.3713 |
0.0 |
0.3713 |
0.0707 |
12.5 |
300 |
0.0442 |
0.1710 |
0.3419 |
0.3419 |
nan |
0.3419 |
0.0 |
0.3419 |
0.0508 |
13.33 |
320 |
0.0434 |
0.2003 |
0.4006 |
0.4006 |
nan |
0.4006 |
0.0 |
0.4006 |
0.0396 |
14.17 |
340 |
0.0420 |
0.1409 |
0.2818 |
0.2818 |
nan |
0.2818 |
0.0 |
0.2818 |
0.0395 |
15.0 |
360 |
0.0417 |
0.1640 |
0.3280 |
0.3280 |
nan |
0.3280 |
0.0 |
0.3280 |
0.0387 |
15.83 |
380 |
0.0397 |
0.1827 |
0.3655 |
0.3655 |
nan |
0.3655 |
0.0 |
0.3655 |
0.0458 |
16.67 |
400 |
0.0387 |
0.1582 |
0.3165 |
0.3165 |
nan |
0.3165 |
0.0 |
0.3165 |
0.0363 |
17.5 |
420 |
0.0390 |
0.1724 |
0.3449 |
0.3449 |
nan |
0.3449 |
0.0 |
0.3449 |
0.0401 |
18.33 |
440 |
0.0382 |
0.2018 |
0.4036 |
0.4036 |
nan |
0.4036 |
0.0 |
0.4036 |
0.0355 |
19.17 |
460 |
0.0382 |
0.2032 |
0.4064 |
0.4064 |
nan |
0.4064 |
0.0 |
0.4064 |
0.0447 |
20.0 |
480 |
0.0372 |
0.1908 |
0.3817 |
0.3817 |
nan |
0.3817 |
0.0 |
0.3817 |
框架版本
- Transformers 4.28.0
- Pytorch 2.0.0+cu118
- Datasets 2.12.0
- Tokenizers 0.13.3
🔧 技术细节
文档未提供足够的技术实现细节(少于50字),故跳过此章节。
📄 许可证
本模型使用的许可证为其他(other)。