V

Vit Gigantic Patch14 Clip 224.metaclip 2pt5b

由timm開發
基於MetaCLIP-2.5B數據集訓練的雙框架兼容視覺模型,支持OpenCLIP和timm框架
下載量 444
發布時間 : 10/23/2024

模型概述

該模型是一個基於Vision Transformer架構的大規模視覺模型,主要用於零樣本圖像分類任務。它兼容OpenCLIP和timm兩種框架,具有強大的圖像理解能力。

模型特點

雙框架兼容
同時支持OpenCLIP和timm框架,提供更靈活的使用方式
大規模預訓練
基於MetaCLIP-2.5B大規模數據集訓練,具有強大的視覺表示能力
零樣本學習
支持零樣本圖像分類任務,無需特定領域微調即可應用

模型能力

圖像分類
視覺特徵提取
跨模態理解

使用案例

計算機視覺
零樣本圖像分類
無需特定訓練即可對新類別圖像進行分類
內容審核
識別圖像中的不當內容
跨模態應用
圖像搜索
基於文本描述搜索相關圖像
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase