S

Siglip2 So400m Patch16 Naflex

由google開發
SigLIP 2 是基於 SigLIP 預訓練目標的改進模型,整合了多項技術以提升語義理解、定位和密集特徵提取能力。
下載量 159.81k
發布時間 : 2/18/2025

模型概述

SigLIP 2 是一個視覺語言模型,可用於零樣本圖像分類、圖文檢索等任務,或作為視覺編碼器用於其他視覺任務。

模型特點

增強的語義理解
通過整合解碼器損失、全局-局部和掩碼預測損失等技術,提升了語義理解能力。
寬高比和分辨率適應性
支持不同寬高比和分辨率的圖像處理,增強了模型的適應性。
多任務支持
可用於零樣本圖像分類、圖文檢索等多種視覺語言任務。

模型能力

零樣本圖像分類
圖文檢索
視覺編碼

使用案例

圖像分類
零樣本圖像分類
無需訓練即可對圖像進行分類,適用於快速部署的場景。
支持自定義候選標籤,輸出分類概率。
圖文檢索
圖像搜索
根據文本描述檢索相關圖像。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase