Y

Yolos Base

由hustvl開發
YOLOS是一種基於視覺Transformer(ViT)的目標檢測模型,通過DETR損失訓練,在COCO數據集上達到42 AP的性能。
下載量 2,638
發布時間 : 4/26/2022

模型概述

YOLOS是一種使用DETR損失訓練的視覺Transformer(ViT),專為目標檢測任務設計。該模型在COCO 2017驗證集上表現出色,與DETR及Faster R-CNN等複雜框架性能相當。

模型特點

基於Transformer的目標檢測
YOLOS採用視覺Transformer架構,將目標檢測任務轉化為序列預測問題,簡化了傳統檢測框架的複雜性。
二分匹配損失
使用匈牙利匹配算法建立預測與標註間的最優對應關係,結合交叉熵損失與L1及廣義IoU損失優化模型參數。
高性能
在COCO 2017驗證集上達到42 AP的性能,與DETR及更復雜的Faster R-CNN框架相當。

模型能力

目標檢測
圖像分析
邊界框預測

使用案例

計算機視覺
場景理解
檢測圖像中的物體及其位置,適用於監控、自動駕駛等場景。
能夠準確識別並定位圖像中的多個物體。
圖像標註
自動為圖像生成包含物體類別和位置的標註信息。
提供高質量的圖像標註,減少人工標註成本。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase