V

Vit Base Patch16 Clip 224.laion400m E31

由 timm 开发
基于LAION-400M数据集训练的视觉Transformer模型,支持零样本图像分类任务
下载量 1,469
发布时间 : 10/23/2024

模型简介

这是一个双用途的视觉Transformer模型,同时兼容OpenCLIP和timm框架。采用ViT-B-16架构,在LAION-400M数据集上训练,主要用于零样本图像分类任务。

模型特点

双框架兼容
同时支持OpenCLIP和timm框架,提供更灵活的使用方式
零样本学习能力
无需特定类别训练即可对新类别进行分类
大规模预训练
在LAION-400M大规模数据集上训练,具有强大的视觉表示能力

模型能力

零样本图像分类
图像特征提取
跨模态表示学习

使用案例

计算机视觉
开放域图像分类
对任意类别图像进行分类而无需重新训练
图像检索
基于文本描述检索相关图像
多模态应用
图文匹配
评估图像与文本描述的匹配程度
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase