F

Fare2 Clip

由chs20開發
基於OpenAI CLIP初始化的視覺語言模型,通過無監督對抗微調提升魯棒性
下載量 543
發布時間 : 2/23/2024

模型概述

該模型是基於CLIP架構的視覺語言模型,採用無監督對抗微調方法在ImageNet數據集上訓練,特別增強了對抗攻擊的魯棒性。

模型特點

對抗魯棒性
採用無窮範數和半徑2/255進行無監督對抗微調,增強了模型對對抗攻擊的抵抗能力
零樣本能力
保留CLIP模型的零樣本分類能力,無需特定任務微調即可應用於新任務
視覺語言對齊
保持CLIP模型的視覺和語言表示對齊特性,支持跨模態任務

模型能力

零樣本圖像分類
跨模態檢索
對抗魯棒性分析

使用案例

計算機視覺
魯棒圖像分類
在對抗攻擊環境下進行可靠的圖像分類
在ImageNet上表現出更強的對抗魯棒性
跨模態檢索
圖像與文本之間的跨模態搜索
安全應用
對抗攻擊檢測
識別可能包含對抗擾動的輸入
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase