C

Clip Vit Large Patch14

由openai開發
CLIP是由OpenAI開發的視覺-語言模型,通過對比學習將圖像和文本映射到共享的嵌入空間,支持零樣本圖像分類
下載量 44.7M
發布時間 : 3/2/2022

模型概述

CLIP模型通過聯合訓練圖像編碼器和文本編碼器,學習圖像和文本之間的語義對應關係,可用於零樣本圖像分類、跨模態檢索等任務。

模型特點

零樣本學習能力
無需特定任務微調即可執行新的圖像分類任務
多模態理解
同時理解視覺和文本信息,建立跨模態關聯
強泛化性
在廣泛的數據集上展示出良好的泛化性能

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索
多模態特徵提取

使用案例

計算機視覺研究
魯棒性研究
研究計算機視覺模型的魯棒性和泛化性
在30+個數據集上評估了性能
零樣本分類
無需訓練即可對任意類別進行圖像分類
跨模態應用
圖像搜索
使用自然語言查詢搜索相關圖像
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase