E

Eva02 Enormous Patch14 Clip 224.laion2b Plus

由 timm 开发
EVA-CLIP是基于CLIP架构的大规模视觉-语言模型,支持零样本图像分类等任务。
下载量 54
发布时间 : 12/26/2024

模型简介

该模型是基于CLIP架构的视觉-语言预训练模型,能够理解图像和文本的关联,适用于多种跨模态任务。

模型特点

零样本学习能力
无需特定任务的微调即可执行图像分类等任务
大规模预训练
在LAION-2B等大规模数据集上进行预训练
跨模态理解
能够同时处理和理解视觉和文本信息

模型能力

零样本图像分类
图像-文本匹配
跨模态检索

使用案例

计算机视觉
零样本图像分类
无需训练即可对新类别图像进行分类
图像检索
根据文本描述检索相关图像
多模态应用
图文匹配
评估图像和文本描述的匹配程度
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase