F

FARE4 Convnext Base W Laion2b S13b B82k Augreg

由chs20開發
基於CLIP模型的魯棒感知度量模型,通過對抗性微調提升對抗樣本的魯棒性
下載量 39
發布時間 : 8/14/2024

模型概述

該模型是基於CLIP架構的視覺-語言模型,經過FARE方法在ImageNet上的對抗性微調,專門用於提升模型在感知相似性任務中的魯棒性表現。

模型特點

對抗性魯棒性
使用FARE方法在ImageNet上進行對抗性微調,提升模型對對抗樣本的抵抗能力
感知相似性度量
專門優化用於感知相似性任務,在NIGHTS數據集上表現優異
基於CLIP架構
建立在強大的CLIP模型基礎上,繼承了其優秀的視覺-語言對齊能力

模型能力

零樣本圖像分類
感知相似性度量
對抗樣本識別

使用案例

計算機視覺
圖像相似性比較
用於評估兩幅圖像在人類感知層面的相似程度
在NIGHTS數據集上達到90.6%的準確率
對抗樣本檢測
識別經過對抗性攻擊修改的圖像
在L-無窮範數攻擊下仍保持74.3%的性能
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase