🚀 segformer-b0-finetuned-segments-stamp-verification
本模型是基於nvidia/mit-b0在bilal01/stamp-verification數據集上進行微調的版本。它在郵票分割任務中表現出色,能夠準確識別和分割圖像中的郵票區域,為郵票管理和電商平臺等場景提供了高效的解決方案。
🚀 快速開始
本模型是 nvidia/mit-b0 在 bilal01/stamp-verification 數據集上的微調版本。它在評估集上取得了以下結果:
- 損失值:0.0372
- 平均交併比(Mean Iou):0.1908
- 平均準確率:0.3817
- 整體準確率:0.3817
- 未標記準確率:nan
- 郵票準確率:0.3817
- 未標記交併比:0.0
- 郵票交併比:0.3817
✨ 主要特性
StampSegNet 是一個語義分割模型,在專門為郵票分割設計的自定義數據集上進行了微調。它基於強大的 Hugging Face 框架,利用深度學習技術準確、高效地從圖像中分割郵票。
該模型經過訓練,能夠識別和分類圖像的不同區域,判斷其是否屬於郵票。通過利用對郵票特定特徵(如複雜的設計、邊框和獨特的顏色)的理解,StampSegNet 能夠生成像素級的分割圖,突出顯示圖像中郵票的精確邊界。
📦 安裝指南
文檔未提供安裝步驟,故跳過此章節。
💻 使用示例
文檔未提供代碼示例,故跳過此章節。
📚 詳細文檔
預期用途和侷限性
- 郵票收藏管理:StampSegNet 模型可供郵票收藏家和愛好者使用,以自動從圖像中分割郵票。它通過準確識別和分離郵票,簡化了郵票收藏的整理和編目過程,節省了時間和精力。
- 電子商務平臺:面向郵票買賣雙方的在線市場和拍賣平臺可以集成 StampSegNet 模型,以提升用戶體驗。賣家可以輕鬆上傳郵票圖像,模型可以自動提取並顯示分割後的郵票,方便潛在買家進行搜索、分類和估價。
雖然 StampSegNet 在郵票分割方面表現出高性能,但在郵票嚴重損壞或模糊、郵票形狀異常或圖像光照條件不佳的情況下,可能會遇到挑戰。此外,與任何基於人工智能的模型一樣,訓練數據中存在的偏差可能會影響分割結果,因此需要仔細評估和緩解任何倫理問題。
訓練和評估數據
使用的數據集來自 Kaggle,鏈接如下:
{dataset}(https://www.kaggle.com/datasets/rtatman/stamp-verification-staver-dataset)
我們使用了 60 個樣本,並在 Segments.ai 上對它們進行了標註。
訓練過程
數據收集和準備
- 收集多樣化的郵票圖像數據集以及相應的像素級標註,標註指示圖像中郵票的區域。
- 確保數據集包含各種郵票設計、尺寸、顏色、背景和光照條件。
- 將數據集劃分為訓練集和驗證集。
模型選擇和配置
- 選擇適合郵票分割任務的語義分割模型架構。
- 我們使用 nvidia/mit-b0 作為預訓練模型並進行了微調。
- 配置模型架構和必要的超參數,如學習率、批量大小和優化器。
訓練
- 使用初始化的權重在標註的郵票數據集上訓練模型。
- 使用適合語義分割任務的損失函數,如交叉熵損失或 Dice 損失。
- 執行小批量隨機梯度下降(SGD)或使用 Adam 等優化器更新模型參數。
- 通過計算像素準確率、平均交併比(IoU)或 F1 分數等指標來監控訓練進度。
訓練超參數
訓練期間使用了以下超參數:
- 學習率:6e-05
- 訓練批量大小:2
- 評估批量大小:2
- 隨機種子:42
- 優化器:Adam,β=(0.9, 0.999),ε=1e-08
- 學習率調度器類型:線性
- 訓練輪數:20
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
平均交併比 |
平均準確率 |
整體準確率 |
未標記準確率 |
郵票準確率 |
未標記交併比 |
郵票交併比 |
0.3384 |
0.83 |
20 |
0.2769 |
0.0335 |
0.0670 |
0.0670 |
nan |
0.0670 |
0.0 |
0.0670 |
0.2626 |
1.67 |
40 |
0.2201 |
0.1256 |
0.2512 |
0.2512 |
nan |
0.2512 |
0.0 |
0.2512 |
0.1944 |
2.5 |
60 |
0.1918 |
0.2030 |
0.4060 |
0.4060 |
nan |
0.4060 |
0.0 |
0.4060 |
0.2665 |
3.33 |
80 |
0.1564 |
0.1574 |
0.3148 |
0.3148 |
nan |
0.3148 |
0.0 |
0.3148 |
0.1351 |
4.17 |
100 |
0.1194 |
0.1817 |
0.3634 |
0.3634 |
nan |
0.3634 |
0.0 |
0.3634 |
0.1156 |
5.0 |
120 |
0.1035 |
0.1334 |
0.2668 |
0.2668 |
nan |
0.2668 |
0.0 |
0.2668 |
0.1103 |
5.83 |
140 |
0.0895 |
0.1819 |
0.3638 |
0.3638 |
nan |
0.3638 |
0.0 |
0.3638 |
0.0882 |
6.67 |
160 |
0.0746 |
0.0833 |
0.1665 |
0.1665 |
nan |
0.1665 |
0.0 |
0.1665 |
0.0778 |
7.5 |
180 |
0.0655 |
0.1927 |
0.3854 |
0.3854 |
nan |
0.3854 |
0.0 |
0.3854 |
0.0672 |
8.33 |
200 |
0.0585 |
0.1327 |
0.2654 |
0.2654 |
nan |
0.2654 |
0.0 |
0.2654 |
0.0612 |
9.17 |
220 |
0.0615 |
0.1640 |
0.3279 |
0.3279 |
nan |
0.3279 |
0.0 |
0.3279 |
0.0611 |
10.0 |
240 |
0.0546 |
0.2466 |
0.4933 |
0.4933 |
nan |
0.4933 |
0.0 |
0.4933 |
0.0537 |
10.83 |
260 |
0.0499 |
0.1129 |
0.2258 |
0.2258 |
nan |
0.2258 |
0.0 |
0.2258 |
0.0504 |
11.67 |
280 |
0.0502 |
0.1857 |
0.3713 |
0.3713 |
nan |
0.3713 |
0.0 |
0.3713 |
0.0707 |
12.5 |
300 |
0.0442 |
0.1710 |
0.3419 |
0.3419 |
nan |
0.3419 |
0.0 |
0.3419 |
0.0508 |
13.33 |
320 |
0.0434 |
0.2003 |
0.4006 |
0.4006 |
nan |
0.4006 |
0.0 |
0.4006 |
0.0396 |
14.17 |
340 |
0.0420 |
0.1409 |
0.2818 |
0.2818 |
nan |
0.2818 |
0.0 |
0.2818 |
0.0395 |
15.0 |
360 |
0.0417 |
0.1640 |
0.3280 |
0.3280 |
nan |
0.3280 |
0.0 |
0.3280 |
0.0387 |
15.83 |
380 |
0.0397 |
0.1827 |
0.3655 |
0.3655 |
nan |
0.3655 |
0.0 |
0.3655 |
0.0458 |
16.67 |
400 |
0.0387 |
0.1582 |
0.3165 |
0.3165 |
nan |
0.3165 |
0.0 |
0.3165 |
0.0363 |
17.5 |
420 |
0.0390 |
0.1724 |
0.3449 |
0.3449 |
nan |
0.3449 |
0.0 |
0.3449 |
0.0401 |
18.33 |
440 |
0.0382 |
0.2018 |
0.4036 |
0.4036 |
nan |
0.4036 |
0.0 |
0.4036 |
0.0355 |
19.17 |
460 |
0.0382 |
0.2032 |
0.4064 |
0.4064 |
nan |
0.4064 |
0.0 |
0.4064 |
0.0447 |
20.0 |
480 |
0.0372 |
0.1908 |
0.3817 |
0.3817 |
nan |
0.3817 |
0.0 |
0.3817 |
框架版本
- Transformers 4.28.0
- Pytorch 2.0.0+cu118
- Datasets 2.12.0
- Tokenizers 0.13.3
🔧 技術細節
文檔未提供足夠的技術實現細節(少於50字),故跳過此章節。
📄 許可證
本模型使用的許可證為其他(other)。