V

Vit Base Patch16 Siglip 512.v2 Webli

由timm開發
基於SigLIP 2的視覺變換器模型,專為圖像特徵提取設計,使用webli數據集預訓練
下載量 2,664
發布時間 : 2/21/2025

模型概述

這是一個基於SigLIP 2架構的視覺變換器(ViT)模型,僅包含圖像編碼器部分。模型採用patch大小為16的分塊方式,輸入分辨率為512x512,使用sigmoid損失函數進行預訓練。

模型特點

SigLIP 2架構
採用改進的SigLIP 2架構,具備增強的語義理解和定位能力
高分辨率處理
支持512x512的高分辨率圖像輸入
密集特徵提取
能夠提取圖像的密集特徵表示
Sigmoid損失函數
使用sigmoid損失函數進行預訓練,優化視覺-語言對齊

模型能力

圖像特徵提取
視覺語義理解
圖像定位分析

使用案例

計算機視覺
圖像檢索
提取圖像特徵用於相似圖像檢索
提供高質量的圖像嵌入表示
視覺-語言任務
作為視覺編碼器用於多模態任務
增強的視覺語義理解能力
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase