C

CLIP ViT B 32 DataComp.M S128m B4k

由laion開發
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務,使用DataComp.M數據集訓練
下載量 212
發布時間 : 4/26/2023

模型概述

該模型是基於CLIP架構的視覺-語言預訓練模型,能夠理解圖像和文本的關聯性,特別適用於零樣本圖像分類任務。

模型特點

零樣本學習能力
無需特定任務的微調即可執行圖像分類任務
多模態理解
同時理解視覺和文本信息,建立跨模態關聯
高效架構
基於ViT-B/32視覺變換器架構,平衡性能和效率

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索

使用案例

內容管理
自動圖像標註
為未標註圖像自動生成描述性標籤
提高內容管理效率,減少人工標註成本
電子商務
產品分類
根據自然語言描述對產品圖像進行分類
無需訓練數據即可實現新產品分類
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase