C

CLIP ViT B 32 CommonPool.S.image S13m B4k

由laion開發
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
下載量 60
發布時間 : 4/26/2023

模型概述

該模型是CLIP架構的一個變體,結合了視覺Transformer(ViT)和文本編碼器,能夠理解圖像和文本之間的關聯,適用於零樣本圖像分類等跨模態任務。

模型特點

零樣本學習能力
無需特定任務的微調即可執行圖像分類任務
跨模態理解
能夠同時處理和理解視覺和文本信息
高效架構
基於ViT-B/32的視覺編碼器,平衡了性能和計算效率

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索

使用案例

內容管理
自動圖像標註
為未標註的圖像自動生成描述性標籤
提高圖像數據庫的組織和檢索效率
電子商務
產品分類
根據自然語言描述對產品圖像進行分類
無需為每個新產品類別訓練專用模型
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase