F

FARE4 Convnext Base W Laion2b S13b B82k Augreg

由 chs20 开发
基于CLIP模型的鲁棒感知度量模型,通过对抗性微调提升对抗样本的鲁棒性
下载量 39
发布时间 : 8/14/2024

模型简介

该模型是基于CLIP架构的视觉-语言模型,经过FARE方法在ImageNet上的对抗性微调,专门用于提升模型在感知相似性任务中的鲁棒性表现。

模型特点

对抗性鲁棒性
使用FARE方法在ImageNet上进行对抗性微调,提升模型对对抗样本的抵抗能力
感知相似性度量
专门优化用于感知相似性任务,在NIGHTS数据集上表现优异
基于CLIP架构
建立在强大的CLIP模型基础上,继承了其优秀的视觉-语言对齐能力

模型能力

零样本图像分类
感知相似性度量
对抗样本识别

使用案例

计算机视觉
图像相似性比较
用于评估两幅图像在人类感知层面的相似程度
在NIGHTS数据集上达到90.6%的准确率
对抗样本检测
识别经过对抗性攻击修改的图像
在L-无穷范数攻击下仍保持74.3%的性能
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase