FARE4 Convnext Base W Laion2b S13b B82k Augreg
F
FARE4 Convnext Base W Laion2b S13b B82k Augreg
由 chs20 开发
基于CLIP模型的鲁棒感知度量模型,通过对抗性微调提升对抗样本的鲁棒性
下载量 39
发布时间 : 8/14/2024
模型简介
该模型是基于CLIP架构的视觉-语言模型,经过FARE方法在ImageNet上的对抗性微调,专门用于提升模型在感知相似性任务中的鲁棒性表现。
模型特点
对抗性鲁棒性
使用FARE方法在ImageNet上进行对抗性微调,提升模型对对抗样本的抵抗能力
感知相似性度量
专门优化用于感知相似性任务,在NIGHTS数据集上表现优异
基于CLIP架构
建立在强大的CLIP模型基础上,继承了其优秀的视觉-语言对齐能力
模型能力
零样本图像分类
感知相似性度量
对抗样本识别
使用案例
计算机视觉
图像相似性比较
用于评估两幅图像在人类感知层面的相似程度
在NIGHTS数据集上达到90.6%的准确率
对抗样本检测
识别经过对抗性攻击修改的图像
在L-无穷范数攻击下仍保持74.3%的性能
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98