F

FARE4 ViT B 16 Laion2b S34b B88k

由chs20開發
基於CLIP模型的魯棒感知度量模型,通過對抗性微調提升在感知相似性任務中的性能。
下載量 23
發布時間 : 8/14/2024

模型概述

該模型是基於CLIP架構的視覺語言模型,經過對抗性微調(FARE方法),在保持乾淨數據性能的同時,顯著提升了對抗性攻擊下的魯棒性。主要用於零樣本圖像分類和感知相似性任務。

模型特點

對抗性魯棒性
使用FARE方法在ImageNet上以無窮範數和半徑4/255進行對抗性微調,顯著提升模型對對抗性攻擊的抵抗力。
高性能感知度量
在NIGHTS感知相似性任務上表現出色,乾淨數據準確率達90.6%,對抗性攻擊下仍保持較高性能。
基於CLIP架構
建立在成熟的CLIP-ViT-B-16架構上,繼承了CLIP模型的強大視覺語言對齊能力。

模型能力

零樣本圖像分類
感知相似性度量
對抗性魯棒圖像分析

使用案例

計算機視覺
圖像相似性評估
用於評估兩幅圖像在人類感知層面的相似程度
在NIGHTS數據集上達到90.6%的準確率
魯棒圖像分類
在存在對抗性干擾的情況下仍能保持較好的分類性能
在L-無窮攻擊(eps=4/255)下保持71.5%的準確率
安全關鍵應用
對抗性攻擊檢測
識別可能被對抗性攻擊篡改的圖像內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase