🚀 facebook-detr-resnet-50-finetuned-10k-cppe5-with-augs
該模型是 facebook/detr-resnet-50 在 cppe - 5 數據集上的微調版本,可用於目標檢測任務,在評估集上取得了較好的效果。

🚀 快速開始
此模型是在 facebook/detr-resnet-50
基礎上,針對 cppe - 5 數據集進行微調得到的。它在評估集上有如下表現:
- 損失值(Loss):1.2371
- 平均精度均值(Map):0.2873
- Map 50:0.5678
- Map 75:0.2501
- Map 小目標:0.126
- Map 中目標:0.2327
- Map 大目標:0.4873
- 召回率均值(Mar)1:0.2843
- Mar 10:0.4643
- Mar 100:0.4762
- Mar 小目標:0.2338
- Mar 中目標:0.4167
- Mar 大目標:0.7114
- Map 全覆蓋:0.5461
- Mar 100 全覆蓋:0.6932
- Map 防護面罩:0.2167
- Mar 100 防護面罩:0.4785
- Map 手套:0.2135
- Mar 100 手套:0.4094
- Map 護目鏡:0.173
- Mar 100 護目鏡:0.4092
- Map 口罩:0.2871
- Mar 100 口罩:0.3907
🔧 技術細節
訓練超參數
訓練過程中使用了以下超參數:
屬性 |
詳情 |
學習率(learning_rate) |
5e - 05 |
訓練批次大小(train_batch_size) |
8 |
評估批次大小(eval_batch_size) |
8 |
隨機種子(seed) |
1337 |
優化器(optimizer) |
Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08) |
學習率調度器類型(lr_scheduler_type) |
線性 |
訓練輪數(num_epochs) |
100.0 |
混合精度訓練(mixed_precision_training) |
原生自動混合精度(Native AMP) |
訓練結果
| 訓練損失 | 輪數 | 步數 | 驗證損失 | Map | Map 50 | Map 75 | Map 小目標 | Map 中目標 | Map 大目標 | Mar 1 | Mar 10 | Mar 100 | Mar 小目標 | Mar 中目標 | Mar 大目標 | Map 全覆蓋 | Mar 100 全覆蓋 | Map 防護面罩 | Mar 100 防護面罩 | Map 手套 | Mar 100 手套 | Map 護目鏡 | Mar 100 護目鏡 | Map 口罩 | Mar 100 口罩 |
| :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: |
| 2.6324 | 1.0 | 107 | 2.3696 | 0.0355 | 0.0772 | 0.0305 | 0.0094 | 0.0044 | 0.0388 | 0.0606 | 0.1313 | 0.1643 | 0.0314 | 0.0921 | 0.1907 | 0.1559 | 0.536 | 0.0 | 0.0 | 0.0064 | 0.1433 | 0.0 | 0.0 | 0.0151 | 0.1422 |
| 2.0851 | 2.0 | 214 | 2.1468 | 0.0518 | 0.1164 | 0.0389 | 0.0106 | 0.0151 | 0.0683 | 0.0809 | 0.1628 | 0.1881 | 0.023 | 0.1069 | 0.2515 | 0.2068 | 0.5842 | 0.0 | 0.0 | 0.0174 | 0.167 | 0.0 | 0.0 | 0.035 | 0.1893 |
| ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
| 0.7948 | 100.0 | 10700 | 1.2371 | 0.2873 | 0.5678 | 0.2501 | 0.126 | 0.2327 | 0.4873 | 0.2843 | 0.4643 | 0.4762 | 0.2338 | 0.4167 | 0.7114 | 0.5461 | 0.6932 | 0.2167 | 0.4785 | 0.2135 | 0.4094 | 0.173 | 0.4092 | 0.2871 | 0.3907 |
框架版本
- Transformers 4.41.0.dev0
- Pytorch 1.13.0+cu117
- Datasets 2.18.0
- Tokenizers 0.19.0
📄 許可證
本模型採用 Apache - 2.0 許可證。