# 开放域识别

Internvideo2 Stage2 6B
MIT
InternVideo2是一个多模态视频理解模型,具有6B参数规模,专注于视频内容分析和理解任务。
视频生成文本
I
OpenGVLab
542
0
Resnet101 Clip Gap.openai
Apache-2.0
基于CLIP框架的ResNet101图像编码器,通过全局平均池化(GAP)提取图像特征
图像分类 Transformers
R
timm
104
0
Resnet50 Clip Gap.openai
Apache-2.0
基于CLIP模型视觉编码器部分的ResNet50变体,通过全局平均池化(GAP)提取图像特征
图像分类 Transformers
R
timm
250
1
Eva Giant Patch14 Clip 224.laion400m
MIT
EVA CLIP模型是基于OpenCLIP和timm框架的视觉语言模型,支持零样本图像分类任务。
文本生成图像
E
timm
124
0
Eva02 Enormous Patch14 Clip 224.laion2b
MIT
EVA-CLIP是一个基于CLIP架构的视觉-语言模型,支持零样本图像分类任务。
文本生成图像
E
timm
38
0
Eva02 Base Patch16 Clip 224.merged2b
MIT
EVA CLIP模型是基于OpenCLIP与timm框架构建的视觉语言模型,支持零样本图像分类等任务。
文本生成图像
E
timm
3,029
0
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
基于CLIP架构的视觉Transformer模型,专注于图像特征提取
图像分类 Transformers
V
timm
502
0
Vit Huge Patch14 Clip 224.laion2b
Apache-2.0
基于CLIP框架的ViT-Huge视觉编码器,使用laion2B数据集训练,支持图像特征提取
图像分类 Transformers
V
timm
1,969
0
Vit Base Patch32 Clip 224.laion2b
Apache-2.0
基于CLIP架构的视觉Transformer模型,专为图像特征提取设计,使用laion2B数据集训练
图像分类 Transformers
V
timm
83
0
Vit Huge Patch14 Clip 224.metaclip 2pt5b
基于MetaCLIP-2.5B数据集训练的双用途视觉语言模型,支持零样本图像分类任务
图像分类
V
timm
3,173
0
Vit Large Patch14 Clip 224.metaclip 2pt5b
基于MetaCLIP-2.5B数据集训练的双框架兼容视觉模型,支持零样本图像分类任务
图像分类
V
timm
2,648
0
Vit Base Patch16 Plus Clip 240.laion400m E31
MIT
基于LAION-400M数据集训练的视觉-语言双用途模型,支持零样本图像分类任务
图像分类
V
timm
37.23k
0
Vit Base Patch32 Clip 224.laion2b E16
MIT
基于LAION-2B数据集训练的Vision Transformer模型,支持零样本图像分类任务
图像分类
V
timm
7,683
0
Resnet50x16 Clip.openai
MIT
基于CLIP框架的ResNet50x16视觉模型,支持零样本图像分类任务
图像分类
R
timm
702
0
Resnet50x4 Clip.openai
MIT
基于CLIP架构的ResNet50x4视觉语言模型,支持零样本图像分类任务
图像生成文本
R
timm
2,303
0
Resnet50 Clip.openai
MIT
基于ResNet50架构和CLIP技术的零样本图像分类模型
图像分类
R
timm
11.91k
0
Vit Xsmall Patch16 Clip 224.tinyclip Yfcc15m
MIT
基于CLIP架构的小型视觉-语言模型,专为高效零样本图像分类设计
图像分类
V
timm
444
0
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
基于ViT架构的小型CLIP模型,适用于零样本图像分类任务,训练于LAION-400M数据集。
图像分类
V
timm
113
1
Vit Medium Patch32 Clip 224.tinyclip Laion400m
MIT
基于OpenCLIP库的视觉语言模型,支持零样本图像分类任务。
图像分类
V
timm
110
0
Vit B 16 Aion400m E32 1finetuned 1
MIT
基于OpenCLIP框架的视觉Transformer模型,针对零样本图像分类任务进行微调
图像分类
V
Albe-njupt
18
1
CLIP ViT B 32 Laion2b E16
MIT
基于OpenCLIP实现的视觉-语言预训练模型,支持零样本图像分类任务
文本生成图像
C
justram
89
0
CLIP ViT L 14 CommonPool.XL.laion S13b B90k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务,由laion数据集训练
文本生成图像
C
laion
176
1
CLIP ViT L 14 CommonPool.XL S13b B90k
MIT
基于CLIP架构的视觉-语言预训练模型,支持零样本图像分类和跨模态检索任务
文本生成图像
C
laion
4,255
2
CLIP ViT B 16 DataComp.L S1b B8k
MIT
基于CLIP架构的零样本图像分类模型,使用DataComp数据集训练,支持高效的图像-文本匹配任务。
文本生成图像
C
laion
1,166
1
CLIP ViT B 16 CommonPool.L.clip S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
138
0
CLIP ViT B 16 CommonPool.L.laion S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务,使用laion-s1B-b8K数据集训练
文本生成图像
C
laion
106
0
CLIP ViT B 16 CommonPool.L.image S1b B8k
MIT
基于CLIP架构的视觉语言模型,支持零样本图像分类任务
文本生成图像
C
laion
70
0
CLIP ViT B 16 CommonPool.L.text S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
58
0
CLIP ViT B 16 CommonPool.L.basic S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
57
0
CLIP ViT B 16 CommonPool.L S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
517
0
CLIP ViT B 32 DataComp.M S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务,使用DataComp.M数据集训练
文本生成图像
C
laion
212
0
CLIP ViT B 32 CommonPool.M.laion S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
65
0
CLIP ViT B 32 CommonPool.M.image S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
73
0
CLIP ViT B 32 CommonPool.M.text S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
68
0
CLIP ViT B 32 CommonPool.M.basic S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务。
文本生成图像
C
laion
67
0
CLIP ViT B 32 CommonPool.M S128m B4k
MIT
基于CLIP架构的零样本图像分类模型,支持通用视觉-语言任务
文本生成图像
C
laion
79
0
CLIP ViT B 32 DataComp.S S13m B4k
MIT
基于CLIP架构的零样本图像分类模型,使用DataComp数据集训练,支持多种视觉任务。
文本生成图像
C
laion
92
0
CLIP ViT B 32 CommonPool.S.clip S13m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
68
0
CLIP ViT B 32 CommonPool.S.laion S13m B4k
MIT
基于CLIP架构的视觉语言模型,支持零样本图像分类任务
文本生成图像
C
laion
58
0
CLIP ViT B 32 CommonPool.S.image S13m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
60
0
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase