V

Vit Large Patch14 Clip 224.laion2b

由timm開發
基於CLIP架構的視覺Transformer模型,專注於圖像特徵提取
下載量 502
發布時間 : 12/24/2024

模型概述

這是一個基於CLIP架構的視覺Transformer模型,專門用於圖像特徵提取任務。它採用了ViT-Large架構,能夠處理224x224分辨率的輸入圖像。

模型特點

大規模預訓練
在laion2B數據集上進行預訓練,具有強大的圖像理解能力
高分辨率處理
支持224x224分辨率的圖像輸入
Transformer架構
採用Vision Transformer架構,具有全局注意力機制

模型能力

圖像特徵提取
圖像表示學習
視覺內容理解

使用案例

計算機視覺
圖像檢索
提取圖像特徵用於相似圖像搜索
視覺內容分析
理解圖像內容並提取語義特徵
多模態應用
圖文匹配
與文本編碼器配合實現跨模態檢索
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase