V

Vit Huge Patch14 Clip 224.metaclip 2pt5b

由timm開發
基於MetaCLIP-2.5B數據集訓練的雙用途視覺語言模型,支持零樣本圖像分類任務
下載量 3,173
發布時間 : 10/23/2024

模型概述

該模型是OpenCLIP和timm框架兼容的視覺Transformer模型,主要用於零樣本圖像分類任務,具有強大的跨模態理解能力。

模型特點

雙框架兼容
同時支持OpenCLIP和timm框架,提供靈活的使用方式
大規模預訓練
基於MetaCLIP-2.5B大規模數據集訓練,具有強大的視覺語言理解能力
零樣本學習
支持零樣本圖像分類任務,無需特定任務的微調
高效架構
採用Vision Transformer Huge架構,結合quickgelu激活函數,平衡性能與效率

模型能力

零樣本圖像分類
跨模態理解
圖像特徵提取

使用案例

計算機視覺
圖像分類
對未見過的圖像類別進行分類,無需額外訓練
在零樣本設置下實現高準確率分類
跨模態檢索
實現圖像與文本之間的跨模態搜索
內容理解
自動標註
為圖像生成描述性標籤
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase