S

Siglip Large Patch16 384

由google開發
SigLIP是基於WebLi數據集預訓練的多模態模型,採用改進的Sigmoid損失函數,適用於零樣本圖像分類和圖文檢索任務。
下載量 245.21k
發布時間 : 1/8/2024

模型概述

SigLIP是改進損失函數版本的CLIP多模態模型,其Sigmoid損失函數僅作用於圖像-文本對,無需通過全局相似度進行歸一化。該特性使得模型在擴大批次規模的同時,也能在小批次場景下表現更優。

模型特點

改進的Sigmoid損失函數
僅作用於圖像-文本對,無需通過全局相似度進行歸一化,使得模型在擴大批次規模的同時,也能在小批次場景下表現更優。
高性能
在零樣本圖像分類和圖文檢索任務中表現優異,優於傳統CLIP模型。
多模態支持
支持圖像和文本的雙模態處理,適用於多種視覺-語言任務。

模型能力

零樣本圖像分類
圖文檢索
多模態處理

使用案例

圖像分類
零樣本圖像分類
無需訓練即可對圖像進行分類,支持自定義標籤。
在多種數據集上表現優異,優於傳統CLIP模型。
圖文檢索
圖像搜索
根據文本描述檢索相關圖像。
高效準確,適用於大規模圖像庫。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase