V

Vit B 16 SigLIP 256

由timm開發
一個在WebLI數據集上訓練的SigLIP(語言-圖像預訓練的Sigmoid損失)模型,適用於零樣本圖像分類任務。
下載量 17.15k
發布時間 : 10/16/2023

模型概述

該模型是基於Vision Transformer架構的對比圖像-文本模型,使用Sigmoid損失進行預訓練,支持零樣本圖像分類。

模型特點

Sigmoid損失函數
採用創新的Sigmoid損失進行語言-圖像預訓練,相比傳統Softmax損失有更好的性能表現
零樣本分類能力
無需微調即可直接應用於新的圖像分類任務
大規模預訓練
在WebLI大規模數據集上進行預訓練,具有強大的泛化能力

模型能力

圖像-文本對比學習
零樣本圖像分類
圖像特徵提取
多模態理解

使用案例

圖像分類
零樣本圖像識別
無需訓練即可識別新類別的圖像
示例中能準確識別貝涅餅
內容理解
圖像-文本匹配
計算圖像與文本描述的相似度
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase