V

Vit Large Patch14 Clip 336.openai

由timm開發
OpenAI開發的CLIP模型,採用ViT-L/14架構,支持零樣本圖像分類任務
下載量 35.62k
發布時間 : 4/10/2023

模型概述

CLIP模型通過對比學習聯合訓練圖像和文本編碼器,實現跨模態理解,特別擅長零樣本圖像分類任務

模型特點

零樣本學習能力
無需特定任務微調即可執行新類別的圖像分類
跨模態理解
通過聯合訓練實現圖像和文本的語義對齊
魯棒性設計
專門針對計算機視覺任務的魯棒性和泛化性進行優化

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索

使用案例

學術研究
計算機視覺魯棒性研究
研究模型在不同分佈數據上的表現
論文中展示了跨數據集泛化能力
多模態學習研究
探索視覺-語言聯合表示學習
建立了圖像和文本的共享嵌入空間
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase