T

Tecoa2 Clip

由chs20開發
基於OpenAI CLIP初始化的視覺語言模型,在ImageNet上進行監督式對抗微調,具有魯棒性增強特性
下載量 53
發布時間 : 2/23/2024

模型概述

該模型是基於CLIP架構的視覺語言模型,通過對抗微調增強了對抗樣本的魯棒性,適用於零樣本圖像分類等任務

模型特點

對抗魯棒性
在ImageNet上進行監督式對抗微調,採用無窮範數和2/255半徑,增強了模型對對抗樣本的魯棒性
零樣本能力
保留CLIP模型的零樣本學習能力,無需特定任務微調即可應用於多種視覺任務
視覺語言對齊
保持CLIP原有的視覺-語言對齊特性,能夠理解圖像與文本之間的語義關係

模型能力

零樣本圖像分類
跨模態檢索
對抗樣本識別

使用案例

計算機視覺
魯棒圖像分類
在存在對抗干擾的情況下進行準確的圖像分類
相比標準CLIP模型,在對抗樣本上表現更穩定
跨模態搜索
根據文本描述檢索相關圖像,或根據圖像生成描述性文本
安全應用
對抗樣本檢測
識別可能經過對抗性修改的圖像輸入
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase