# 零樣本目標檢測

Llmdet Swin Large Hf
Apache-2.0
LLMDet是基於大語言模型監督的強開放詞彙目標檢測器,CVPR2025亮點論文成果
目標檢測
L
fushh7
3,428
1
Llmdet Swin Base Hf
Apache-2.0
LLMDet是一個基於大語言模型監督的開放詞彙目標檢測器,能夠實現零樣本目標檢測。
目標檢測 Safetensors
L
fushh7
605
0
Llmdet Swin Tiny Hf
Apache-2.0
LLMDet是基於大語言模型監督的強開放詞彙目標檢測器,能夠實現零樣本目標檢測。
目標檢測 Safetensors
L
fushh7
2,451
0
VLM R1 Qwen2.5VL 3B OVD 0321
Apache-2.0
基於Qwen2.5-VL-3B-Instruct的零樣本目標檢測模型,通過VLM-R1強化學習增強,支持開放詞彙檢測任務。
文本生成圖像 英語
V
omlab
892
11
Inference Endpoint For Omdet Turbo Swin Tiny Hf
Apache-2.0
基於Swin-Tiny架構的零樣本目標檢測模型,支持法語和英語,適用於多種場景的目標檢測任務。
目標檢測 Transformers 支持多種語言
I
Blueway
199
1
Yoloe 11l Seg
YOLOE是一個即時視覺全能模型,支持零樣本目標檢測等多種視覺任務。
目標檢測
Y
jameslahm
219
2
Yoloe V8l Seg
YOLOE是一個即時視覺全能模型,結合了目標檢測和視覺理解能力,適用於多種視覺任務。
目標檢測
Y
jameslahm
4,135
1
Yoloe V8s Seg
YOLOE 是一個零樣本目標檢測模型,能夠即時檢測視覺場景中的各種物體。
目標檢測
Y
jameslahm
28
0
Qwen2.5vl 3B VLM R1 REC 500steps
基於Qwen2.5-VL-3B-Instruct的視覺語言模型,通過VLM-R1強化學習增強,專注於指代表達式理解任務。
文本生成圖像 Safetensors 英語
Q
omlab
976
22
Grounding Dino Tiny ONNX
Apache-2.0
基於ONNX格式的輕量級零樣本目標檢測模型,兼容Transformers.js,適用於瀏覽器端部署。
目標檢測 Transformers
G
onnx-community
98
1
Paligemma2 10b Mix 448
PaliGemma 2是基於Gemma 2的視覺語言模型,支持圖像和文本輸入,生成文本輸出,適用於多種視覺語言任務。
圖像生成文本 Transformers
P
google
31.63k
25
Omdet Turbo Swin Tiny Hf
Apache-2.0
OmDet-Turbo是基於即時Transformer的高效融合頭開放詞彙檢測模型,適用於零樣本目標檢測任務。
目標檢測 Safetensors
O
omlab
36.29k
33
Owlv2 Large Patch14 Ensemble
Apache-2.0
OWLv2是一種零樣本文本條件目標檢測模型,可通過文本查詢檢測圖像中的對象。
文本生成圖像 Transformers
O
Thomasboosinger
1
0
Owlv2 Base Patch16
OWLv2是一個基於視覺語言預訓練的模型,專注於對象檢測和定位任務。
目標檢測 Transformers
O
Xenova
17
0
Owlvit Base Patch32
OWL-ViT是一個基於視覺Transformer的零樣本目標檢測模型,能夠在不進行微調的情況下檢測新類別的物體。
目標檢測 Transformers
O
Xenova
86
1
Owlv2 Base Patch16 Ensemble
Apache-2.0
OWLv2是一種零樣本文本條件目標檢測模型,可通過文本查詢在圖像中定位物體。
目標檢測 Transformers
O
upfeatmediainc
15
0
Owlv2 Base Patch16
Apache-2.0
OWLv2是一種零樣本文本條件目標檢測模型,可通過文本查詢對圖像中的物體進行檢測和定位。
文本生成圖像 Transformers
O
vvmnnnkv
26
0
Owlv2 Large Patch14 Finetuned
Apache-2.0
OWLv2是一個零樣本文本條件目標檢測模型,可通過文本查詢在圖像中檢測物體,無需特定類別的訓練數據。
文本生成圖像 Transformers
O
google
1,434
4
Owlv2 Large Patch14 Ensemble
Apache-2.0
OWLv2是一個零樣本文本條件目標檢測模型,可通過文本查詢在圖像中定位對象。
文本生成圖像 Transformers
O
google
262.77k
25
Owlv2 Large Patch14
Apache-2.0
OWLv2是一個零樣本文本條件目標檢測模型,可通過文本查詢在圖像中檢測對象,無需特定類別的訓練數據。
文本生成圖像 Transformers
O
google
3,679
5
Owlv2 Base Patch16 Finetuned
Apache-2.0
OWLv2是一個零樣本文本條件目標檢測模型,可通過文本查詢檢索圖像中的對象。
目標檢測 Transformers
O
google
2,698
3
Owlv2 Base Patch16 Ensemble
Apache-2.0
OWLv2是一種零樣本文本條件目標檢測模型,可通過文本查詢在圖像中定位對象。
文本生成圖像 Transformers
O
google
932.80k
99
Owlv2 Base Patch16
Apache-2.0
OWLv2是一種零樣本文本條件目標檢測模型,可通過文本查詢檢索圖像中的對象。
文本生成圖像 Transformers
O
google
15.42k
26
Grounding Dino Base
Apache-2.0
Grounding DINO是一個開放集目標檢測模型,通過結合DINO檢測器與文本編碼器實現零樣本目標檢測能力。
目標檢測 Transformers
G
IDEA-Research
1.1M
87
Grounding Dino Tiny
Apache-2.0
Grounding DINO是一個結合DINO檢測器與接地預訓練的開放集目標檢測模型,能夠實現零樣本目標檢測。
目標檢測 Transformers
G
IDEA-Research
771.67k
74
Owlvit Large Patch14
Apache-2.0
OWL-ViT是一個零樣本文本條件目標檢測模型,可通過文本查詢檢索圖像中的對象。
文本生成圖像 Transformers
O
google
25.01k
25
Owlvit Base Patch16
Apache-2.0
OWL-ViT是一個零樣本文本條件目標檢測模型,可通過文本查詢在圖像中檢測物體。
文本生成圖像 Transformers
O
google
4,588
12
Owlvit Base Patch32
Apache-2.0
OWL-ViT是一個零樣本文本條件目標檢測模型,可以通過文本查詢搜索圖像中的對象,無需特定類別的訓練數據。
文本生成圖像 Transformers
O
google
764.95k
129
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase