C

CLIP ViT B 32 CommonPool.S.clip S13m B4k

由laion開發
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
下載量 68
發布時間 : 4/26/2023

模型概述

該模型是CLIP架構的一個變體,結合了Vision Transformer(ViT)和文本編碼器,能夠在沒有特定任務訓練的情況下進行圖像分類。

模型特點

零樣本學習能力
無需特定任務的微調即可執行圖像分類任務
多模態理解
同時處理視覺和文本信息,建立跨模態關聯
高效架構
基於Vision Transformer的輕量級設計,平衡性能和效率

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索

使用案例

內容管理
自動圖像標註
為無標籤圖像自動生成描述性標籤
提高內容管理效率,減少人工標註成本
電子商務
視覺搜索
通過自然語言描述查找相關產品圖像
提升用戶體驗和轉化率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase