Vehicle Detection Model
基於DETR框架的車輛檢測模型,支持多種車輛類型的識別與定位
下載量 32
發布時間 : 7/11/2024
模型概述
該模型是基於facebook/detr-resnet-50微調的車輛檢測模型,能夠識別房車、轎車、皮卡等多種車輛類型,並提供它們在圖像中的位置信息。
模型特點
端到端目標檢測
採用DETR架構,無需傳統目標檢測中的錨框設計,實現端到端的檢測流程
多類別車輛識別
能夠識別房車、轎車、皮卡等多種車輛類型
不同尺度目標檢測
針對小、中、大不同尺寸的車輛目標都有檢測能力
模型能力
車輛檢測
目標定位
多類別識別
使用案例
智能交通
交通監控分析
用於交通監控攝像頭中的車輛檢測與統計
可識別不同類型車輛並統計其數量
自動駕駛感知
為自動駕駛系統提供周圍車輛檢測能力
幫助自動駕駛車輛識別周圍車輛位置和類型
安防監控
停車場管理
用於停車場車輛進出檢測與分類
可統計不同類型車輛的停放情況
🚀 車輛檢測模型
本模型是一個車輛檢測模型,它基於 facebook/detr-resnet-50 在特定數據集上進行微調得到。該模型在評估集上取得了一系列評估指標結果,可用於車輛檢測相關的任務。
🚀 快速開始
本模型是 facebook/detr-resnet-50 在未知數據集上的微調版本。它在評估集上取得了以下結果:
- 損失值(Loss):0.7220
- 平均精度均值(Map):0.0875
- 閾值為 50 時的平均精度均值(Map 50):0.1634
- 閾值為 75 時的平均精度均值(Map 75):0.084
- 小目標的平均精度均值(Map Small):0.355
- 中目標的平均精度均值(Map Medium):0.1423
- 大目標的平均精度均值(Map Large):0.0499
- 召回率為 1 時的平均召回率(Mar 1):0.1462
- 召回率為 10 時的平均召回率(Mar 10):0.2602
- 召回率為 100 時的平均召回率(Mar 100):0.2709
- 小目標的平均召回率(Mar Small):0.5
- 中目標的平均召回率(Mar Medium):0.4013
- 大目標的平均召回率(Mar Large):0.3
- 露營車的平均精度均值(Map Camping car):0.0039
- 召回率為 100 時露營車的平均召回率(Mar 100 Camping car):0.35
- 汽車的平均精度均值(Map Car):0.4971
- 召回率為 100 時汽車的平均召回率(Mar 100 Car):0.6256
- 其他目標的平均精度均值(Map Other):0.0
- 召回率為 100 時其他目標的平均召回率(Mar 100 Other):0.0
- 皮卡的平均精度均值(Map Pickup):0.0239
- 召回率為 100 時皮卡的平均召回率(Mar 100 Pickup):0.65
- 卡車的平均精度均值(Map Truck):0.0
- 召回率為 100 時卡車的平均召回率(Mar 100 Truck):0.0
- 貨車的平均精度均值(Map Van):0.0
- 召回率為 100 時貨車的平均召回率(Mar 100 Van):0.0
📚 詳細文檔
訓練超參數
訓練過程中使用了以下超參數:
- 學習率(learning_rate):5e - 05
- 訓練批次大小(train_batch_size):8
- 評估批次大小(eval_batch_size):8
- 隨機種子(seed):42
- 優化器(optimizer):Adam,其中 betas = (0.9, 0.999),epsilon = 1e - 08
- 學習率調度器類型(lr_scheduler_type):餘弦退火調度器(cosine)
- 訓練輪數(num_epochs):30
訓練結果
訓練損失 | 輪數 | 步數 | 驗證損失 | 平均精度均值 | 閾值為 50 時的平均精度均值 | 閾值為 75 時的平均精度均值 | 小目標的平均精度均值 | 中目標的平均精度均值 | 大目標的平均精度均值 | 召回率為 1 時的平均召回率 | 召回率為 10 時的平均召回率 | 召回率為 100 時的平均召回率 | 小目標的平均召回率 | 中目標的平均召回率 | 大目標的平均召回率 | 露營車的平均精度均值 | 召回率為 100 時露營車的平均召回率 | 汽車的平均精度均值 | 召回率為 100 時汽車的平均召回率 | 其他目標的平均精度均值 | 召回率為 100 時其他目標的平均召回率 | 皮卡的平均精度均值 | 召回率為 100 時皮卡的平均召回率 | 卡車的平均精度均值 | 召回率為 100 時卡車的平均召回率 | 貨車的平均精度均值 | 召回率為 100 時貨車的平均召回率 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
無日誌記錄 | 1.0 | 232 | 1.3186 | 0.0125 | 0.0292 | 0.0085 | 0.0059 | 0.0197 | 0.004 | 0.0182 | 0.0467 | 0.0903 | 0.0556 | 0.1396 | 0.1 | 0.0 | 0.0 | 0.0751 | 0.5416 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
無日誌記錄 | 2.0 | 464 | 1.0802 | 0.0375 | 0.0832 | 0.0283 | 0.263 | 0.0585 | 0.0102 | 0.0254 | 0.0734 | 0.0865 | 0.2667 | 0.1317 | 0.15 | 0.0 | 0.0 | 0.2249 | 0.5189 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
1.4746 | 3.0 | 696 | 0.9804 | 0.0608 | 0.125 | 0.0483 | 0.2948 | 0.0938 | 0.075 | 0.0305 | 0.0821 | 0.0903 | 0.3556 | 0.1372 | 0.075 | 0.0 | 0.0 | 0.3646 | 0.5416 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
1.4746 | 4.0 | 928 | 0.9139 | 0.0712 | 0.1426 | 0.0577 | 0.2232 | 0.1091 | 0.125 | 0.0315 | 0.085 | 0.0959 | 0.3333 | 0.1459 | 0.125 | 0.0 | 0.0 | 0.4274 | 0.5754 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
1.0134 | 5.0 | 1160 | 0.9581 | 0.0637 | 0.1367 | 0.0426 | 0.0804 | 0.0993 | 0.075 | 0.0289 | 0.0771 | 0.0846 | 0.2556 | 0.1292 | 0.075 | 0.0 | 0.0 | 0.3823 | 0.5078 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
1.0134 | 6.0 | 1392 | 0.8830 | 0.0743 | 0.1476 | 0.0645 | 0.2171 | 0.1139 | 0.075 | 0.0345 | 0.0862 | 0.0967 | 0.3222 | 0.1474 | 0.075 | 0.0 | 0.0 | 0.4456 | 0.5801 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
0.9133 | 7.0 | 1624 | 0.8645 | 0.0716 | 0.147 | 0.0571 | 0.2156 | 0.1099 | 0.0752 | 0.0329 | 0.0853 | 0.0966 | 0.3111 | 0.147 | 0.175 | 0.0 | 0.0 | 0.4296 | 0.5797 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
0.9133 | 8.0 | 1856 | 0.8776 | 0.0676 | 0.1478 | 0.0445 | 0.2225 | 0.1032 | 0.1254 | 0.0317 | 0.0811 | 0.0934 | 0.3333 | 0.1417 | 0.2 | 0.0 | 0.0 | 0.4056 | 0.5601 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
0.8617 | 9.0 | 2088 | 0.8556 | 0.0754 | 0.1506 | 0.0638 | 0.252 | 0.1153 | 0.1254 | 0.0323 | 0.0881 | 0.0999 | 0.3667 | 0.1517 | 0.2 | 0.0 | 0.0 | 0.4525 | 0.5996 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
0.8617 | 10.0 | 2320 | 0.7552 | 0.0821 | 0.1528 | 0.0803 | 0.361 | 0.1248 | 0.1257 | 0.0347 | 0.1119 | 0.1312 | 0.5222 | 0.1747 | 0.2625 | 0.0 | 0.0 | 0.4921 | 0.6206 | 0.0 | 0.0 | 0.0004 | 0.1667 | 0.0 | 0.0 | 0.0 | 0.0 |
0.8182 | 11.0 | 2552 | 0.8211 | 0.0741 | 0.1525 | 0.0627 | 0.3014 | 0.114 | 0.0503 | 0.0381 | 0.1098 | 0.1544 | 0.4222 | 0.2641 | 0.125 | 0.0001 | 0.1 | 0.4422 | 0.5762 | 0.0 | 0.0 | 0.002 | 0.25 | 0.0 | 0.0 | 0.0 | 0.0 |
0.8182 | 12.0 | 2784 | 0.8140 | 0.0734 | 0.1486 | 0.056 | 0.214 | 0.1129 | 0.0506 | 0.0451 | 0.1066 | 0.1184 | 0.3778 | 0.1941 | 0.125 | 0.0 | 0.0 | 0.4382 | 0.594 | 0.0 | 0.0 | 0.0024 | 0.1167 | 0.0 | 0.0 | 0.0 | 0.0 |
0.8079 | 13.0 | 3016 | 0.7473 | 0.0848 | 0.1559 | 0.0789 | 0.2794 | 0.1307 | 0.0779 | 0.078 | 0.16 | 0.1727 | 0.5 | 0.2668 | 0.1625 | 0.0 | 0.0 | 0.4983 | 0.6363 | 0.0 | 0.0 | 0.0103 | 0.4 | 0.0 | 0.0 | 0.0 | 0.0 |
0.8079 | 14.0 | 3248 | 0.8514 | 0.0706 | 0.1541 | 0.0485 | 0.3034 | 0.1071 | 0.1046 | 0.079 | 0.1726 | 0.1862 | 0.4222 | 0.2556 | 0.2875 | 0.0 | 0.0 | 0.4149 | 0.5669 | 0.0 | 0.0 | 0.0089 | 0.55 | 0.0 | 0.0 | 0.0 | 0.0 |
0.8079 | 15.0 | 3480 | 0.7615 | 0.0814 | 0.1579 | 0.0709 | 0.3673 | 0.1229 | 0.0691 | 0.0929 | 0.161 | 0.1719 | 0.4444 | 0.2177 | 0.3125 | 0.0 | 0.0 | 0.4774 | 0.6146 | 0.0 | 0.0 | 0.0109 | 0.4167 | 0.0 | 0.0 | 0.0 | 0.0 |
0.7672 | 16.0 | 3712 | 0.7819 | 0.0786 | 0.1555 | 0.0732 | 0.2782 | 0.1182 | 0.1589 | 0.103 | 0.1757 | 0.1878 | 0.3556 | 0.2629 | 0.325 | 0.0 | 0.0 | 0.4557 | 0.5936 | 0.0 | 0.0 | 0.0159 | 0.5333 | 0.0 | 0.0 | 0.0 | 0.0 |
0.7672 | 17.0 | 3944 | 0.7723 | 0.0807 | 0.1551 | 0.0757 | 0.3302 | 0.1227 | 0.0687 | 0.0812 | 0.1762 | 0.1939 | 0.4 | 0.274 | 0.3 | 0.0 | 0.0 | 0.4724 | 0.6135 | 0.0 | 0.0 | 0.0121 | 0.55 | 0.0 | 0.0 | 0.0 | 0.0 |
0.744 | 18.0 | 4176 | 0.7838 | 0.0784 | 0.1535 | 0.0709 | 0.3594 | 0.1201 | 0.0564 | 0.0865 | 0.1865 | 0.2497 | 0.4 | 0.3637 | 0.325 | 0.0009 | 0.3 | 0.4503 | 0.5982 | 0.0 | 0.0 | 0.0191 | 0.6 | 0.0 | 0.0 | 0.0 | 0.0 |
0.744 | 19.0 | 4408 | 0.7714 | 0.0763 | 0.1552 | 0.0625 | 0.2732 | 0.116 | 0.0675 | 0.0605 | 0.1696 | 0.1824 | 0.4111 | 0.2502 | 0.3 | 0.0 | 0.0 | 0.4461 | 0.5943 | 0.0 | 0.0 | 0.0115 | 0.5 | 0.0 | 0.0 | 0.0 | 0.0 |
0.7219 | 20.0 | 4640 | 0.7403 | 0.0808 | 0.1543 | 0.0686 | 0.2968 | 0.1251 | 0.0665 | 0.0984 | 0.1889 | 0.1997 | 0.5111 | 0.2859 | 0.3 | 0.0 | 0.0 | 0.4738 | 0.6146 | 0.0 | 0.0 | 0.0109 | 0.5833 | 0.0 | 0.0 | 0.0 | 0.0 |
0.7219 | 21.0 | 4872 | 0.7421 | 0.0839 | 0.1599 | 0.0803 | 0.2862 | 0.2166 | 0.0451 | 0.1396 | 0.2437 | 0.257 | 0.5 | 0.3782 | 0.275 | 0.0123 | 0.4 | 0.4792 | 0.6089 | 0.0 | 0.0 | 0.0118 | 0.5333 | 0.0 | 0.0 | 0.0 | 0.0 |
0.6955 | 22.0 | 5104 | 0.7459 | 0.0844 | 0.1619 | 0.0753 | 0.3116 | 0.1475 | 0.0462 | 0.1395 | 0.2253 | 0.2342 | 0.4333 | 0.3404 | 0.2875 | 0.0068 | 0.25 | 0.4815 | 0.6053 | 0.0 | 0.0 | 0.018 | 0.55 | 0.0 | 0.0 | 0.0 | 0.0 |
0.6955 | 23.0 | 5336 | 0.7439 | 0.0844 | 0.1594 | 0.0782 | 0.3246 | 0.1335 | 0.0682 | 0.1559 | 0.2468 | 0.2567 | 0.4667 | 0.378 | 0.3 | 0.0031 | 0.3 | 0.4854 | 0.6071 | 0.0 | 0.0 | 0.018 | 0.6333 | 0.0 | 0.0 | 0.0 | 0.0 |
0.6836 | 24.0 | 5568 | 0.7263 | 0.0879 | 0.1619 | 0.0854 | 0.3509 | 0.1397 | 0.0597 | 0.1718 | 0.2499 | 0.2589 | 0.4333 | 0.3818 | 0.275 | 0.0027 | 0.3 | 0.4998 | 0.6203 | 0.0 | 0.0 | 0.025 | 0.6333 | 0.0 | 0.0 | 0.0 | 0.0 |
0.6836 | 25.0 | 5800 | 0.7146 | 0.0881 | 0.1632 | 0.087 | 0.3606 | 0.1412 | 0.0714 | 0.1518 | 0.2466 | 0.2572 | 0.4667 | 0.3768 | 0.3 | 0.0032 | 0.3 | 0.4988 | 0.6263 | 0.0 | 0.0 | 0.0267 | 0.6167 | 0.0 | 0.0 | 0.0 | 0.0 |
0.6671 | 26.0 | 6032 | 0.7180 | 0.0915 | 0.1678 | 0.0918 | 0.3652 | 0.2262 | 0.0483 | 0.163 | 0.2506 | 0.2672 | 0.5 | 0.3979 | 0.2875 | 0.0186 | 0.35 | 0.5069 | 0.6367 | 0.0 | 0.0 | 0.0235 | 0.6167 | 0.0 | 0.0 | 0.0 | 0.0 |
0.6671 | 27.0 | 6264 | 0.7219 | 0.0907 | 0.1678 | 0.0888 | 0.3596 | 0.2122 | 0.0492 | 0.1375 | 0.26 | 0.2709 | 0.5 | 0.4012 | 0.3 | 0.0184 | 0.35 | 0.5014 | 0.6253 | 0.0 | 0.0 | 0.0243 | 0.65 | 0.0 | 0.0 | 0.0 | 0.0 |
0.6671 | 28.0 | 6496 | 0.7177 | 0.0882 | 0.1642 | 0.0866 | 0.3625 | 0.1439 | 0.0505 | 0.1463 | 0.2603 | 0.2715 | 0.5111 | 0.4021 | 0.3 | 0.0038 | 0.35 | 0.4996 | 0.6288 | 0.0 | 0.0 | 0.0256 | 0.65 | 0.0 | 0.0 | 0.0 | 0.0 |
0.656 | 29.0 | 6728 | 0.7257 | 0.0873 | 0.1634 | 0.084 | 0.355 | 0.1417 | 0.0497 | 0.1433 | 0.2572 | 0.2708 | 0.5 | 0.401 | 0.3 | 0.0039 | 0.35 | 0.4962 | 0.6246 | 0.0 | 0.0 | 0.0237 | 0.65 | 0.0 | 0.0 | 0.0 | 0.0 |
0.656 | 30.0 | 6960 | 0.7220 | 0.0875 | 0.1634 | 0.084 | 0.355 | 0.1423 | 0.0499 | 0.1462 | 0.2602 | 0.2709 | 0.5 | 0.4013 | 0.3 | 0.0039 | 0.35 | 0.4971 | 0.6256 | 0.0 | 0.0 | 0.0239 | 0.65 | 0.0 | 0.0 | 0.0 | 0.0 |
框架版本
- Transformers:4.41.2
- Pytorch:2.3.0+cu121
- Datasets:2.20.0
- Tokenizers:0.19.1
📄 許可證
本模型採用 Apache 2.0 許可證。
屬性 | 詳情 |
---|---|
模型類型 | 基於 facebook/detr - resnet - 50 微調的車輛檢測模型 |
訓練數據 | 未提供具體信息 |
Table Transformer Detection
MIT
基於DETR架構的表格檢測模型,專門用於從非結構化文檔中提取表格
目標檢測
Transformers

T
microsoft
2.6M
349
Grounding Dino Base
Apache-2.0
Grounding DINO是一個開放集目標檢測模型,通過結合DINO檢測器與文本編碼器實現零樣本目標檢測能力。
目標檢測
Transformers

G
IDEA-Research
1.1M
87
Grounding Dino Tiny
Apache-2.0
Grounding DINO是一個結合DINO檢測器與接地預訓練的開放集目標檢測模型,能夠實現零樣本目標檢測。
目標檢測
Transformers

G
IDEA-Research
771.67k
74
Detr Resnet 50
Apache-2.0
DETR是一個基於Transformer架構的端到端目標檢測模型,使用ResNet-50作為骨幹網絡,在COCO數據集上訓練。
目標檢測
Transformers

D
facebook
505.27k
857
Detr Resnet 101
Apache-2.0
DETR是一個使用Transformer架構的端到端目標檢測模型,採用ResNet-101作為骨幹網絡,在COCO數據集上訓練。
目標檢測
Transformers

D
facebook
262.94k
119
Detr Doc Table Detection
Apache-2.0
基於DETR架構的文檔表格檢測模型,用於檢測文檔中的有邊框和無邊框表格
目標檢測
Transformers

D
TahaDouaji
233.45k
59
Yolos Small
Apache-2.0
基於視覺Transformer(ViT)的目標檢測模型,使用DETR損失函數訓練,在COCO數據集上表現優異。
目標檢測
Transformers

Y
hustvl
154.46k
63
Yolos Tiny
Apache-2.0
基於COCO 2017目標檢測數據集微調的YOLOS模型,使用視覺Transformer架構實現高效目標檢測。
目標檢測
Transformers

Y
hustvl
144.58k
266
Rtdetr R50vd Coco O365
Apache-2.0
RT-DETR是首個即時端到端目標檢測器,通過高效混合編碼器和不確定性最小化查詢選擇機制,在COCO數據集上達到53.1% AP,108 FPS的性能。
目標檢測
Transformers 英語

R
PekingU
111.17k
11
Rtdetr R101vd Coco O365
Apache-2.0
首個即時端到端目標檢測器,基於Transformer架構,消除非極大值抑制需求,在速度與精度上超越YOLO系列
目標檢測
Transformers 英語

R
PekingU
106.81k
7
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98