# 開放域識別

Internvideo2 Stage2 6B
MIT
InternVideo2是一個多模態視頻理解模型,具有6B參數規模,專注於視頻內容分析和理解任務。
視頻生成文本
I
OpenGVLab
542
0
Resnet101 Clip Gap.openai
Apache-2.0
基於CLIP框架的ResNet101圖像編碼器,通過全局平均池化(GAP)提取圖像特徵
圖像分類 Transformers
R
timm
104
0
Resnet50 Clip Gap.openai
Apache-2.0
基於CLIP模型視覺編碼器部分的ResNet50變體,通過全局平均池化(GAP)提取圖像特徵
圖像分類 Transformers
R
timm
250
1
Eva Giant Patch14 Clip 224.laion400m
MIT
EVA CLIP模型是基於OpenCLIP和timm框架的視覺語言模型,支持零樣本圖像分類任務。
文本生成圖像
E
timm
124
0
Eva02 Enormous Patch14 Clip 224.laion2b
MIT
EVA-CLIP是一個基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務。
文本生成圖像
E
timm
38
0
Eva02 Base Patch16 Clip 224.merged2b
MIT
EVA CLIP模型是基於OpenCLIP與timm框架構建的視覺語言模型,支持零樣本圖像分類等任務。
文本生成圖像
E
timm
3,029
0
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,專注於圖像特徵提取
圖像分類 Transformers
V
timm
502
0
Vit Huge Patch14 Clip 224.laion2b
Apache-2.0
基於CLIP框架的ViT-Huge視覺編碼器,使用laion2B數據集訓練,支持圖像特徵提取
圖像分類 Transformers
V
timm
1,969
0
Vit Base Patch32 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,專為圖像特徵提取設計,使用laion2B數據集訓練
圖像分類 Transformers
V
timm
83
0
Vit Huge Patch14 Clip 224.metaclip 2pt5b
基於MetaCLIP-2.5B數據集訓練的雙用途視覺語言模型,支持零樣本圖像分類任務
圖像分類
V
timm
3,173
0
Vit Large Patch14 Clip 224.metaclip 2pt5b
基於MetaCLIP-2.5B數據集訓練的雙框架兼容視覺模型,支持零樣本圖像分類任務
圖像分類
V
timm
2,648
0
Vit Base Patch16 Plus Clip 240.laion400m E31
MIT
基於LAION-400M數據集訓練的視覺-語言雙用途模型,支持零樣本圖像分類任務
圖像分類
V
timm
37.23k
0
Vit Base Patch32 Clip 224.laion2b E16
MIT
基於LAION-2B數據集訓練的Vision Transformer模型,支持零樣本圖像分類任務
圖像分類
V
timm
7,683
0
Resnet50x16 Clip.openai
MIT
基於CLIP框架的ResNet50x16視覺模型,支持零樣本圖像分類任務
圖像分類
R
timm
702
0
Resnet50x4 Clip.openai
MIT
基於CLIP架構的ResNet50x4視覺語言模型,支持零樣本圖像分類任務
圖像生成文本
R
timm
2,303
0
Resnet50 Clip.openai
MIT
基於ResNet50架構和CLIP技術的零樣本圖像分類模型
圖像分類
R
timm
11.91k
0
Vit Xsmall Patch16 Clip 224.tinyclip Yfcc15m
MIT
基於CLIP架構的小型視覺-語言模型,專為高效零樣本圖像分類設計
圖像分類
V
timm
444
0
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
基於ViT架構的小型CLIP模型,適用於零樣本圖像分類任務,訓練於LAION-400M數據集。
圖像分類
V
timm
113
1
Vit Medium Patch32 Clip 224.tinyclip Laion400m
MIT
基於OpenCLIP庫的視覺語言模型,支持零樣本圖像分類任務。
圖像分類
V
timm
110
0
Vit B 16 Aion400m E32 1finetuned 1
MIT
基於OpenCLIP框架的視覺Transformer模型,針對零樣本圖像分類任務進行微調
圖像分類
V
Albe-njupt
18
1
CLIP ViT B 32 Laion2b E16
MIT
基於OpenCLIP實現的視覺-語言預訓練模型,支持零樣本圖像分類任務
文本生成圖像
C
justram
89
0
CLIP ViT L 14 CommonPool.XL.laion S13b B90k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務,由laion數據集訓練
文本生成圖像
C
laion
176
1
CLIP ViT L 14 CommonPool.XL S13b B90k
MIT
基於CLIP架構的視覺-語言預訓練模型,支持零樣本圖像分類和跨模態檢索任務
文本生成圖像
C
laion
4,255
2
CLIP ViT B 16 DataComp.L S1b B8k
MIT
基於CLIP架構的零樣本圖像分類模型,使用DataComp數據集訓練,支持高效的圖像-文本匹配任務。
文本生成圖像
C
laion
1,166
1
CLIP ViT B 16 CommonPool.L.clip S1b B8k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
138
0
CLIP ViT B 16 CommonPool.L.laion S1b B8k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務,使用laion-s1B-b8K數據集訓練
文本生成圖像
C
laion
106
0
CLIP ViT B 16 CommonPool.L.image S1b B8k
MIT
基於CLIP架構的視覺語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
70
0
CLIP ViT B 16 CommonPool.L.text S1b B8k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
58
0
CLIP ViT B 16 CommonPool.L.basic S1b B8k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
57
0
CLIP ViT B 16 CommonPool.L S1b B8k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
517
0
CLIP ViT B 32 DataComp.M S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務,使用DataComp.M數據集訓練
文本生成圖像
C
laion
212
0
CLIP ViT B 32 CommonPool.M.laion S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
65
0
CLIP ViT B 32 CommonPool.M.image S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
73
0
CLIP ViT B 32 CommonPool.M.text S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
68
0
CLIP ViT B 32 CommonPool.M.basic S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務。
文本生成圖像
C
laion
67
0
CLIP ViT B 32 CommonPool.M S128m B4k
MIT
基於CLIP架構的零樣本圖像分類模型,支持通用視覺-語言任務
文本生成圖像
C
laion
79
0
CLIP ViT B 32 DataComp.S S13m B4k
MIT
基於CLIP架構的零樣本圖像分類模型,使用DataComp數據集訓練,支持多種視覺任務。
文本生成圖像
C
laion
92
0
CLIP ViT B 32 CommonPool.S.clip S13m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
68
0
CLIP ViT B 32 CommonPool.S.laion S13m B4k
MIT
基於CLIP架構的視覺語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
58
0
CLIP ViT B 32 CommonPool.S.image S13m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
60
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase