S

Siglip So400m Patch14 224

由google開發
SigLIP是基於CLIP改進的多模態模型,採用更優的Sigmoid損失函數,在WebLi數據集上預訓練完成,適用於零樣本圖像分類和圖像-文本檢索等任務。
下載量 6,654
發布時間 : 8/23/2024

模型概述

SigLIP是CLIP的改進版本,採用Sigmoid損失函數優化圖像-文本對處理,無需全局歸一化,在小批量和擴大批處理規模時表現更佳。

模型特點

優化的損失函數
採用Sigmoid損失函數,僅作用於圖像-文本對,無需全局歸一化,在小批量和大批量情況下均表現優異。
形狀優化架構
基於SoViT-400m架構,這是經過計算優化的模型設計,提高了效率。
多模態能力
同時處理圖像和文本,支持零樣本圖像分類和圖像-文本檢索等任務。

模型能力

零樣本圖像分類
圖像-文本檢索
多模態理解

使用案例

圖像分類
動物識別
識別圖像中的動物種類,如貓、狗等。
高準確率的零樣本分類能力。
場景識別
識別圖像中的場景,如天空、花朵等。
能夠準確區分不同場景。
圖像-文本檢索
圖像搜索
根據文本描述搜索相關圖像。
高效的圖像-文本匹配能力。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase