Omdet Turbo Swin Tiny Hf
O
Omdet Turbo Swin Tiny Hf
由omlab開發
OmDet-Turbo是基於即時Transformer的高效融合頭開放詞彙檢測模型,適用於零樣本目標檢測任務。
下載量 36.29k
發布時間 : 9/24/2024
模型概述
該模型由Om AI Lab提出,採用Swin Transformer架構,支持開放詞彙目標檢測,能夠檢測訓練數據中未見的物體類別。
模型特點
開放詞彙檢測
支持檢測訓練數據中未出現的物體類別,只需提供類別名稱即可進行檢測
高效融合頭
採用創新的融合頭設計,提高了檢測效率和準確性
批量多圖像推理
支持同一批次中不同圖像使用不同的文本提示和類別進行檢測
模型能力
零樣本目標檢測
開放詞彙識別
多類別同時檢測
批量圖像處理
使用案例
智能監控
異常物體檢測
在監控場景中檢測特定或異常物體
可準確識別未預先訓練的物體類別
零售分析
商品識別
識別貨架上的新產品或未標註商品
無需重新訓練即可檢測新上市商品
🚀 OmDet模型
OmDet模型由來自Om AI實驗室的趙天成、劉鵬、何璇、張璐和李奎松在論文基於即時Transformer的高效融合頭開放詞彙檢測中提出。該模型可用於零樣本(也稱為開放詞彙)目標檢測任務,為目標檢測領域帶來了新的解決方案。
🚀 快速開始
預期用例
此模型旨在用於零樣本(也稱為開放詞彙)目標檢測。
安裝指南
文檔未提及具體安裝步驟,可參考模型庫相關說明進行安裝。
代碼示例
單張圖像推理
以下是如何加載模型並準備輸入,以在單張圖像上執行零樣本目標檢測的代碼示例:
import requests
from PIL import Image
from transformers import AutoProcessor, OmDetTurboForObjectDetection
processor = AutoProcessor.from_pretrained("omlab/omdet-turbo-swin-tiny-hf")
model = OmDetTurboForObjectDetection.from_pretrained("omlab/omdet-turbo-swin-tiny-hf")
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
classes = ["cat", "remote"]
inputs = processor(image, text=classes, return_tensors="pt")
outputs = model(**inputs)
# convert outputs (bounding boxes and class logits)
results = processor.post_process_grounded_object_detection(
outputs,
classes=classes,
target_sizes=[image.size[::-1]],
score_threshold=0.3,
nms_threshold=0.3,
)[0]
for score, class_name, box in zip(
results["scores"], results["classes"], results["boxes"]
):
box = [round(i, 1) for i in box.tolist()]
print(
f"Detected {class_name} with confidence "
f"{round(score.item(), 2)} at location {box}"
)
批量圖像推理
OmDet - Turbo可以執行批量多圖像推理,支持在同一批次中使用不同的文本提示和類別:
>>> import torch
>>> import requests
>>> from io import BytesIO
>>> from PIL import Image
>>> from transformers import AutoProcessor, OmDetTurboForObjectDetection
>>> processor = AutoProcessor.from_pretrained("omlab/omdet-turbo-swin-tiny-hf")
>>> model = OmDetTurboForObjectDetection.from_pretrained("omlab/omdet-turbo-swin-tiny-hf")
>>> url1 = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image1 = Image.open(BytesIO(requests.get(url1).content)).convert("RGB")
>>> classes1 = ["cat", "remote"]
>>> task1 = "Detect {}.".format(", ".join(classes1))
>>> url2 = "http://images.cocodataset.org/train2017/000000257813.jpg"
>>> image2 = Image.open(BytesIO(requests.get(url2).content)).convert("RGB")
>>> classes2 = ["boat"]
>>> task2 = "Detect everything that looks like a boat."
>>> url3 = "https://cdn.britannica.com/61/93061-050-99147DCE/Statue-of-Liberty-Island-New-York-Bay.jpg"
>>> image3 = Image.open(BytesIO(requests.get(url3).content)).convert("RGB")
>>> classes3 = ["statue", "trees"]
>>> task3 = "Focus on the foreground, detect statue and trees."
>>> inputs = processor(
... images=[image1, image2, image3],
... text=[classes1, classes2, classes3],
... task=[task1, task2, task3],
... return_tensors="pt",
... )
>>> with torch.no_grad():
... outputs = model(**inputs)
>>> # convert outputs (bounding boxes and class logits)
>>> results = processor.post_process_grounded_object_detection(
... outputs,
... classes=[classes1, classes2, classes3],
... target_sizes=[image1.size[::-1], image2.size[::-1], image3.size[::-1]],
... score_threshold=0.2,
... nms_threshold=0.3,
... )
>>> for i, result in enumerate(results):
... for score, class_name, box in zip(
... result["scores"], result["classes"], result["boxes"]
... ):
... box = [round(i, 1) for i in box.tolist()]
... print(
... f"Detected {class_name} with confidence "
... f"{round(score.item(), 2)} at location {box} in image {i}"
... )
Detected remote with confidence 0.77 at location [39.9, 70.4, 176.7, 118.0] in image 0
Detected cat with confidence 0.72 at location [11.6, 54.2, 314.8, 474.0] in image 0
Detected remote with confidence 0.56 at location [333.4, 75.8, 370.7, 187.0] in image 0
Detected cat with confidence 0.55 at location [345.2, 24.0, 639.8, 371.7] in image 0
Detected boat with confidence 0.32 at location [146.9, 219.8, 209.6, 250.7] in image 1
Detected boat with confidence 0.3 at location [319.1, 223.2, 403.2, 238.4] in image 1
Detected boat with confidence 0.27 at location [37.7, 220.3, 84.0, 235.9] in image 1
Detected boat with confidence 0.22 at location [407.9, 207.0, 441.7, 220.2] in image 1
Detected statue with confidence 0.73 at location [544.7, 210.2, 651.9, 502.8] in image 2
Detected trees with confidence 0.25 at location [3.9, 584.3, 391.4, 785.6] in image 2
Detected trees with confidence 0.25 at location [1.4, 621.2, 118.2, 787.8] in image 2
Detected statue with confidence 0.2 at location [428.1, 205.5, 767.3, 759.5] in image 2
📚 詳細文檔
參考論文
OmDet模型的詳細信息可參考論文基於即時Transformer的高效融合頭開放詞彙檢測,該論文由Tiancheng Zhao、Peng Liu、Xuan He、Lu Zhang、Kyusong Lee撰寫。
代碼倉庫
如果您喜歡我們的模型,請考慮在GitHub上關注我們的項目OmDet,以獲取更新和新模型發佈的信息。同時,我們也邀請您探索我們在智能體框架上的最新工作OmAgent。
📄 許可證
本項目採用Apache - 2.0許可證。
Table Transformer Detection
MIT
基於DETR架構的表格檢測模型,專門用於從非結構化文檔中提取表格
目標檢測
Transformers

T
microsoft
2.6M
349
Grounding Dino Base
Apache-2.0
Grounding DINO是一個開放集目標檢測模型,通過結合DINO檢測器與文本編碼器實現零樣本目標檢測能力。
目標檢測
Transformers

G
IDEA-Research
1.1M
87
Grounding Dino Tiny
Apache-2.0
Grounding DINO是一個結合DINO檢測器與接地預訓練的開放集目標檢測模型,能夠實現零樣本目標檢測。
目標檢測
Transformers

G
IDEA-Research
771.67k
74
Detr Resnet 50
Apache-2.0
DETR是一個基於Transformer架構的端到端目標檢測模型,使用ResNet-50作為骨幹網絡,在COCO數據集上訓練。
目標檢測
Transformers

D
facebook
505.27k
857
Detr Resnet 101
Apache-2.0
DETR是一個使用Transformer架構的端到端目標檢測模型,採用ResNet-101作為骨幹網絡,在COCO數據集上訓練。
目標檢測
Transformers

D
facebook
262.94k
119
Detr Doc Table Detection
Apache-2.0
基於DETR架構的文檔表格檢測模型,用於檢測文檔中的有邊框和無邊框表格
目標檢測
Transformers

D
TahaDouaji
233.45k
59
Yolos Small
Apache-2.0
基於視覺Transformer(ViT)的目標檢測模型,使用DETR損失函數訓練,在COCO數據集上表現優異。
目標檢測
Transformers

Y
hustvl
154.46k
63
Yolos Tiny
Apache-2.0
基於COCO 2017目標檢測數據集微調的YOLOS模型,使用視覺Transformer架構實現高效目標檢測。
目標檢測
Transformers

Y
hustvl
144.58k
266
Rtdetr R50vd Coco O365
Apache-2.0
RT-DETR是首個即時端到端目標檢測器,通過高效混合編碼器和不確定性最小化查詢選擇機制,在COCO數據集上達到53.1% AP,108 FPS的性能。
目標檢測
Transformers 英語

R
PekingU
111.17k
11
Rtdetr R101vd Coco O365
Apache-2.0
首個即時端到端目標檢測器,基於Transformer架構,消除非極大值抑制需求,在速度與精度上超越YOLO系列
目標檢測
Transformers 英語

R
PekingU
106.81k
7
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98