Y

Yoloe

由jameslahm開發
YOLOE是一個高效、統一且開放的目標檢測與分割模型,支持文本、視覺輸入及無提示範式等多種提示機制,實現即時全能視覺感知。
下載量 40.34k
發布時間 : 3/10/2025

模型概述

YOLOE將多種開放提示機制下的檢測與分割功能集成於單一高效模型中,針對文本提示提出可重參數化的區域-文本對齊策略,對於視覺提示設計語義激活的視覺提示編碼器,針對無提示場景開發惰性區域-提示對比策略。

模型特點

多種提示機制
支持文本提示、視覺輸入及無提示範式等多種提示機制
高效即時處理
在保持高推理效率和低訓練成本的同時,實現即時視覺感知
可重參數化設計
提出可重參數化的區域-文本對齊策略,實現零推理和遷移開銷
開放場景適應
突破傳統YOLO模型的預定義類別限制,適應開放場景

模型能力

目標檢測
圖像分割
文本提示識別
視覺提示識別
無提示對象識別

使用案例

智能監控
開放場景物體識別
在監控場景中識別各種物體,不受預定義類別限制
可準確識別各類物體,包括罕見或新出現的對象
自動駕駛
即時道路物體檢測
在自動駕駛系統中即時檢測道路上的各種物體
高精度識別各類交通參與者,處理速度快
工業質檢
缺陷檢測
通過視覺提示識別產品缺陷
可適應不同類型產品的缺陷檢測需求
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase