M

Minh

由minh14122003開發
YOLOS是基於視覺Transformer(ViT)的目標檢測模型,採用DETR損失訓練,在COCO數據集上表現優異。
下載量 14
發布時間 : 12/1/2024

模型概述

YOLOS是一種使用DETR損失訓練的視覺Transformer模型,專為目標檢測任務設計,可直接用於檢測圖像中的物體。

模型特點

基於Transformer的視覺模型
採用視覺Transformer架構,將圖像處理為序列數據,實現端到端的目標檢測。
二分匹配損失訓練
使用匈牙利匹配算法優化查詢與標註的映射,結合交叉熵和邊界框損失進行訓練。
簡單高效
結構簡單但性能優異,與複雜框架如Faster R-CNN相當。

模型能力

目標檢測
圖像分析
物體定位

使用案例

通用目標檢測
日常場景物體檢測
檢測圖像中的常見物體,如人、動物、交通工具等。
在COCO驗證集上達到28.7 AP
監控視頻分析
用於監控視頻中的物體檢測與跟蹤。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase