C

CLIP ViT B 32 Laion2b S34b B79k

由recallapp開發
基於OpenCLIP框架在LAION-2B英語數據集上訓練的視覺-語言模型,支持零樣本圖像分類和跨模態檢索
下載量 17
發布時間 : 1/12/2025

模型概述

該模型是CLIP架構的變體,使用ViT-B/32視覺編碼器,通過對比學習在圖像-文本對上訓練,可實現無需微調的零樣本圖像分類和跨模態檢索任務。

模型特點

零樣本學習能力
無需特定任務微調即可執行新類別的圖像分類
跨模態理解
能夠將視覺和文本信息映射到共享的嵌入空間
大規模訓練
在LAION-2B數據集(20億圖像-文本對)上訓練

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索
圖像特徵提取

使用案例

內容檢索
基於文本的圖像搜索
使用自然語言查詢檢索相關圖像
圖像分類
零樣本分類
無需訓練即可對新類別進行分類
在ImageNet-1k上達到66.6%的零樣本top-1準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase