V

Vit Base Patch32 Clip 224.metaclip 400m

由timm開發
基於MetaCLIP-400M數據集訓練的視覺語言模型,支持零樣本圖像分類任務
下載量 2,406
發布時間 : 10/23/2024

模型概述

這是一個雙用途的視覺語言模型,可在OpenCLIP和timm框架中使用,主要用於零樣本圖像分類任務。

模型特點

雙框架支持
同時兼容OpenCLIP和timm框架,提供靈活的使用方式
零樣本學習能力
無需特定任務訓練即可執行圖像分類任務
快速推理
基於ViT-B-32架構優化,提供高效的推理速度

模型能力

零樣本圖像分類
圖像特徵提取
跨模態理解

使用案例

計算機視覺
通用圖像分類
對未知類別的圖像進行分類而無需特定訓練
在多種圖像分類任務中表現良好
內容審核
識別圖像中的不當內容
多模態應用
圖文匹配
評估圖像與文本描述的匹配程度
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase