# CLIP架構

Eva Giant Patch14 Clip 224.laion400m
MIT
EVA CLIP模型是基於OpenCLIP和timm框架的視覺語言模型,支持零樣本圖像分類任務。
文本生成圖像
E
timm
124
0
Eva02 Enormous Patch14 Clip 224.laion2b Plus
MIT
EVA-CLIP是基於CLIP架構的大規模視覺-語言模型,支持零樣本圖像分類等任務。
文本生成圖像
E
timm
54
0
Eva02 Enormous Patch14 Clip 224.laion2b
MIT
EVA-CLIP是一個基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務。
文本生成圖像
E
timm
38
0
Eva02 Base Patch16 Clip 224.merged2b
MIT
EVA CLIP模型是基於OpenCLIP與timm框架構建的視覺語言模型,支持零樣本圖像分類等任務。
文本生成圖像
E
timm
3,029
0
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,專注於圖像特徵提取
圖像分類 Transformers
V
timm
502
0
Vit Large Patch14 Clip 224.datacompxl
Apache-2.0
基於CLIP架構的視覺Transformer模型,專門用於圖像特徵提取,由LAION組織發佈。
圖像分類 Transformers
V
timm
14
0
Vit Base Patch16 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,僅包含圖像編碼器部分,適用於圖像特徵提取任務
圖像分類 Transformers
V
timm
4,460
0
Vit Base Patch16 Plus Clip 240.laion400m E31
MIT
基於LAION-400M數據集訓練的視覺-語言雙用途模型,支持零樣本圖像分類任務
圖像分類
V
timm
37.23k
0
Resnet50x4 Clip.openai
MIT
基於CLIP架構的ResNet50x4視覺語言模型,支持零樣本圖像分類任務
圖像生成文本
R
timm
2,303
0
Resnet50 Clip.openai
MIT
基於ResNet50架構和CLIP技術的零樣本圖像分類模型
圖像分類
R
timm
11.91k
0
Mobileclip S0
其他
MobileCLIP S0 是蘋果 ml-mobileclip 項目的 ONNX 適配版本,專為移動設備優化的零樣本圖像分類模型。
文本生成圖像 Transformers
M
Xenova
295
1
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
基於ViT架構的小型CLIP模型,適用於零樣本圖像分類任務,訓練於LAION-400M數據集。
圖像分類
V
timm
113
1
Vit Medium Patch32 Clip 224.tinyclip Laion400m
MIT
基於OpenCLIP庫的視覺語言模型,支持零樣本圖像分類任務。
圖像分類
V
timm
110
0
Vit Medium Patch16 Clip 224.tinyclip Yfcc15m
MIT
基於ViT架構的CLIP模型,用於零樣本圖像分類任務
圖像分類
V
timm
144
0
Chinese Clip Vit Base Patch16
基於ViT架構的中文CLIP模型,支持圖像與文本的多模態理解
文本生成圖像 Transformers
C
Xenova
264
1
CLIP ViT L 14 CommonPool.XL S13b B90k
MIT
基於CLIP架構的視覺-語言預訓練模型,支持零樣本圖像分類和跨模態檢索任務
文本生成圖像
C
laion
4,255
2
CLIP ViT B 16 CommonPool.L.clip S1b B8k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
138
0
CLIP ViT B 32 DataComp.M S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務,使用DataComp.M數據集訓練
文本生成圖像
C
laion
212
0
CLIP ViT B 32 CommonPool.M.laion S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
65
0
CLIP ViT B 32 CommonPool.S S13m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
79
0
Eva02 Base Patch16 Clip 224.merged2b S8b B131k
MIT
基於EVA02架構的CLIP模型,適用於零樣本圖像分類任務
文本生成圖像
E
timm
29.73k
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase