V

Vit Large Patch14 Clip 336.openai

由 timm 开发
OpenAI开发的CLIP模型,采用ViT-L/14架构,支持零样本图像分类任务
下载量 35.62k
发布时间 : 4/10/2023

模型简介

CLIP模型通过对比学习联合训练图像和文本编码器,实现跨模态理解,特别擅长零样本图像分类任务

模型特点

零样本学习能力
无需特定任务微调即可执行新类别的图像分类
跨模态理解
通过联合训练实现图像和文本的语义对齐
鲁棒性设计
专门针对计算机视觉任务的鲁棒性和泛化性进行优化

模型能力

零样本图像分类
图像-文本匹配
跨模态检索

使用案例

学术研究
计算机视觉鲁棒性研究
研究模型在不同分布数据上的表现
论文中展示了跨数据集泛化能力
多模态学习研究
探索视觉-语言联合表示学习
建立了图像和文本的共享嵌入空间
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase