Vit Large Patch16 Siglip Gap 512.v2 Webli
基於SigLIP 2架構的視覺Transformer模型,專為圖像特徵提取設計,採用全局平均池化(GAP)替代注意力池化頭部
下載量 29
發布時間 : 2/21/2025
模型概述
該模型是SigLIP 2的視覺編碼器部分,使用WebLI數據集預訓練,適用於圖像理解和特徵提取任務
模型特點
SigLIP 2架構
採用改進的SigLIP 2架構,具有更好的語義理解和定位能力
全局平均池化
使用GAP(全局平均池化)替代標準注意力池化頭部,簡化模型結構
WebLI預訓練
在WebLI大規模數據集上預訓練,具有廣泛的視覺理解能力
密集特徵提取
能夠提取高質量的圖像密集特徵,適用於下游視覺任務
模型能力
圖像特徵提取
視覺語義理解
圖像定位
多模態表示學習
使用案例
計算機視覺
圖像檢索
使用提取的圖像特徵進行相似圖像搜索
高質量的圖像表示可提高檢索準確率
視覺問答
作為視覺編碼器用於VQA系統
改進的語義理解能力提升問答準確率
多模態應用
圖文匹配
用於圖像-文本匹配任務
SigLIP架構專為此類任務優化
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98