Internvideo2 Stage2 6B
MIT
InternVideo2是一个多模态视频理解模型,具有6B参数规模,专注于视频内容分析和理解任务。
视频生成文本
I
OpenGVLab
542
0
Resnet101 Clip Gap.openai
Apache-2.0
基于CLIP框架的ResNet101图像编码器,通过全局平均池化(GAP)提取图像特征
图像分类
Transformers

R
timm
104
0
Resnet50 Clip Gap.openai
Apache-2.0
基于CLIP模型视觉编码器部分的ResNet50变体,通过全局平均池化(GAP)提取图像特征
图像分类
Transformers

R
timm
250
1
Eva Giant Patch14 Clip 224.laion400m
MIT
EVA CLIP模型是基于OpenCLIP和timm框架的视觉语言模型,支持零样本图像分类任务。
文本生成图像
E
timm
124
0
Eva02 Enormous Patch14 Clip 224.laion2b
MIT
EVA-CLIP是一个基于CLIP架构的视觉-语言模型,支持零样本图像分类任务。
文本生成图像
E
timm
38
0
Eva02 Base Patch16 Clip 224.merged2b
MIT
EVA CLIP模型是基于OpenCLIP与timm框架构建的视觉语言模型,支持零样本图像分类等任务。
文本生成图像
E
timm
3,029
0
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
基于CLIP架构的视觉Transformer模型,专注于图像特征提取
图像分类
Transformers

V
timm
502
0
Vit Huge Patch14 Clip 224.laion2b
Apache-2.0
基于CLIP框架的ViT-Huge视觉编码器,使用laion2B数据集训练,支持图像特征提取
图像分类
Transformers

V
timm
1,969
0
Vit Base Patch32 Clip 224.laion2b
Apache-2.0
基于CLIP架构的视觉Transformer模型,专为图像特征提取设计,使用laion2B数据集训练
图像分类
Transformers

V
timm
83
0
Vit Huge Patch14 Clip 224.metaclip 2pt5b
基于MetaCLIP-2.5B数据集训练的双用途视觉语言模型,支持零样本图像分类任务
图像分类
V
timm
3,173
0
Vit Large Patch14 Clip 224.metaclip 2pt5b
基于MetaCLIP-2.5B数据集训练的双框架兼容视觉模型,支持零样本图像分类任务
图像分类
V
timm
2,648
0
Vit Base Patch16 Plus Clip 240.laion400m E31
MIT
基于LAION-400M数据集训练的视觉-语言双用途模型,支持零样本图像分类任务
图像分类
V
timm
37.23k
0
Vit Base Patch32 Clip 224.laion2b E16
MIT
基于LAION-2B数据集训练的Vision Transformer模型,支持零样本图像分类任务
图像分类
V
timm
7,683
0
Resnet50x16 Clip.openai
MIT
基于CLIP框架的ResNet50x16视觉模型,支持零样本图像分类任务
图像分类
R
timm
702
0
Resnet50x4 Clip.openai
MIT
基于CLIP架构的ResNet50x4视觉语言模型,支持零样本图像分类任务
图像生成文本
R
timm
2,303
0
Resnet50 Clip.openai
MIT
基于ResNet50架构和CLIP技术的零样本图像分类模型
图像分类
R
timm
11.91k
0
Vit Xsmall Patch16 Clip 224.tinyclip Yfcc15m
MIT
基于CLIP架构的小型视觉-语言模型,专为高效零样本图像分类设计
图像分类
V
timm
444
0
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
基于ViT架构的小型CLIP模型,适用于零样本图像分类任务,训练于LAION-400M数据集。
图像分类
V
timm
113
1
Vit Medium Patch32 Clip 224.tinyclip Laion400m
MIT
基于OpenCLIP库的视觉语言模型,支持零样本图像分类任务。
图像分类
V
timm
110
0
Vit B 16 Aion400m E32 1finetuned 1
MIT
基于OpenCLIP框架的视觉Transformer模型,针对零样本图像分类任务进行微调
图像分类
V
Albe-njupt
18
1
CLIP ViT B 32 Laion2b E16
MIT
基于OpenCLIP实现的视觉-语言预训练模型,支持零样本图像分类任务
文本生成图像
C
justram
89
0
CLIP ViT L 14 CommonPool.XL.laion S13b B90k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务,由laion数据集训练
文本生成图像
C
laion
176
1
CLIP ViT L 14 CommonPool.XL S13b B90k
MIT
基于CLIP架构的视觉-语言预训练模型,支持零样本图像分类和跨模态检索任务
文本生成图像
C
laion
4,255
2
CLIP ViT B 16 DataComp.L S1b B8k
MIT
基于CLIP架构的零样本图像分类模型,使用DataComp数据集训练,支持高效的图像-文本匹配任务。
文本生成图像
C
laion
1,166
1
CLIP ViT B 16 CommonPool.L.clip S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
138
0
CLIP ViT B 16 CommonPool.L.laion S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务,使用laion-s1B-b8K数据集训练
文本生成图像
C
laion
106
0
CLIP ViT B 16 CommonPool.L.image S1b B8k
MIT
基于CLIP架构的视觉语言模型,支持零样本图像分类任务
文本生成图像
C
laion
70
0
CLIP ViT B 16 CommonPool.L.text S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
58
0
CLIP ViT B 16 CommonPool.L.basic S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
57
0
CLIP ViT B 16 CommonPool.L S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
517
0
CLIP ViT B 32 DataComp.M S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务,使用DataComp.M数据集训练
文本生成图像
C
laion
212
0
CLIP ViT B 32 CommonPool.M.laion S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
65
0
CLIP ViT B 32 CommonPool.M.image S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
73
0
CLIP ViT B 32 CommonPool.M.text S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
68
0
CLIP ViT B 32 CommonPool.M.basic S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务。
文本生成图像
C
laion
67
0
CLIP ViT B 32 CommonPool.M S128m B4k
MIT
基于CLIP架构的零样本图像分类模型,支持通用视觉-语言任务
文本生成图像
C
laion
79
0
CLIP ViT B 32 DataComp.S S13m B4k
MIT
基于CLIP架构的零样本图像分类模型,使用DataComp数据集训练,支持多种视觉任务。
文本生成图像
C
laion
92
0
CLIP ViT B 32 CommonPool.S.clip S13m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
68
0
CLIP ViT B 32 CommonPool.S.laion S13m B4k
MIT
基于CLIP架构的视觉语言模型,支持零样本图像分类任务
文本生成图像
C
laion
58
0
CLIP ViT B 32 CommonPool.S.image S13m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
60
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98