V

Vit SO400M 14 SigLIP2

由timm開發
一個在WebLI數據集上訓練的SigLIP 2視覺語言模型,適用於零樣本圖像分類任務。
下載量 1,178
發布時間 : 2/21/2025

模型概述

該模型是一個對比式圖文模型,主要用於零樣本圖像分類任務。它基於SigLIP 2架構,在WebLI數據集上進行訓練,具有改進的語義理解和定位能力。

模型特點

改進的語義理解
基於SigLIP 2架構,具有比前代更好的語義理解能力
零樣本分類能力
無需特定訓練即可對未見過的類別進行分類
密集特徵提取
能夠提取圖像的密集特徵,支持更精細的圖像理解
多語言支持
支持多種語言的文本輸入(基於論文描述推斷)

模型能力

零樣本圖像分類
圖像-文本匹配
多模態特徵提取
跨模態檢索

使用案例

圖像分類
零樣本物體識別
無需訓練即可識別新類別的物體
可準確識別示例中的貝奈特餅
內容理解
圖像語義理解
理解圖像內容並匹配相關文本描述
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase