V

Vit Large Patch16 Siglip 384.v2 Webli

由timm開發
基於SigLIP 2架構的視覺Transformer模型,專為圖像特徵提取設計,預訓練於webli數據集
下載量 4,265
發布時間 : 2/21/2025

模型概述

該模型是SigLIP 2論文中描述的視覺編碼器部分,採用ViT-Large架構,專注於高效的圖像特徵提取和多模態理解能力

模型特點

SigLIP 2架構
採用改進的Sigmoid損失函數進行預訓練,增強模型的多模態理解能力
高分辨率處理
支持384x384分辨率輸入,適合處理高質量圖像
密集特徵提取
能夠生成豐富的圖像特徵表示,適用於下游視覺任務

模型能力

圖像特徵提取
多模態理解
視覺語義編碼

使用案例

計算機視覺
圖像檢索
利用提取的圖像特徵進行相似圖像搜索
高精度的檢索效果
視覺問答
作為視覺編碼器用於多模態問答系統
提升問答準確性
多模態應用
圖文匹配
評估圖像與文本描述的匹配程度
改進的跨模態對齊能力
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase