C

CLIP ViT B 32 CommonPool.M.text S128m B4k

由 laion 开发
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
下载量 68
发布时间 : 4/26/2023

模型简介

该模型是CLIP架构的一个变体,结合了视觉Transformer(ViT)和文本编码器,能够理解图像和文本的关联性,适用于跨模态检索和分类任务。

模型特点

零样本学习能力
无需特定任务的微调即可执行新的图像分类任务
跨模态理解
能够同时处理和理解视觉和文本信息
高效架构
基于ViT-B/32的视觉编码器,平衡了性能和计算效率

模型能力

图像分类
跨模态检索
零样本学习
图像-文本匹配

使用案例

内容检索
基于文本的图像搜索
使用自然语言描述搜索相关图像
自动标注
图像自动标注
为图像生成描述性标签
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase