F

Fare4 Clip

由chs20開發
基於OpenAI CLIP初始化的視覺語言模型,通過無監督對抗微調提升魯棒性
下載量 45
發布時間 : 2/23/2024

模型概述

該模型是基於CLIP架構的視覺語言模型,經過在ImageNet數據集上採用無窮範數和4/255半徑的無監督對抗微調,增強了模型的魯棒性。

模型特點

無監督對抗微調
在ImageNet上採用無窮範數和4/255半徑進行對抗訓練,提升模型魯棒性
基於CLIP架構
繼承CLIP強大的視覺語言對齊能力
魯棒性增強
專門針對對抗攻擊場景優化,提高模型穩定性

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索

使用案例

計算機視覺
魯棒圖像分類
在對抗攻擊環境下進行可靠的圖像分類
相比標準CLIP模型具有更強的對抗魯棒性
跨模態檢索
在對抗條件下實現圖像與文本的相互檢索
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase