V

Vit L 14 CLIPA 336 Datacomp1b

由UCSC-VLAA開發
CLIPA-v2模型,一種高效的對比式圖文模型,專注於零樣本圖像分類任務。
下載量 239
發布時間 : 10/17/2023

模型概述

該模型是基於CLIPA-v2架構的對比式圖文模型,主要用於零樣本圖像分類。它通過大規模數據集訓練,能夠在不進行微調的情況下對圖像進行分類。

模型特點

高效零樣本分類
能夠在不需要微調的情況下直接進行圖像分類任務。
大規模訓練數據
使用mlfoundations/datacomp_1b數據集進行訓練,覆蓋廣泛的視覺概念。
反比例縮放優化
採用CLIPA-v2的反比例縮放訓練方法,實現高效性能。

模型能力

零樣本圖像分類
圖文對比學習
多標籤圖像識別

使用案例

圖像分類
零樣本圖像分類
無需訓練即可對圖像進行分類,適用於快速部署場景。
在ImageNet上達到81.1%的零樣本準確率
內容理解
圖文匹配
判斷圖像與文本描述的匹配程度。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase