# CLIP視覺編碼

Resnet101 Clip Gap.openai
Apache-2.0
基於CLIP框架的ResNet101圖像編碼器,通過全局平均池化(GAP)提取圖像特徵
圖像分類 Transformers
R
timm
104
0
Resnet50x64 Clip Gap.openai
Apache-2.0
基於ResNet50架構的CLIP模型圖像編碼器,具有64倍寬度擴展,使用全局平均池化(GAP)策略
圖像分類 Transformers
R
timm
107
0
Resnet50x16 Clip Gap.openai
Apache-2.0
基於CLIP框架的ResNet50x16變體模型,專注於圖像特徵提取
圖像分類 Transformers
R
timm
129
0
Resnet50x4 Clip Gap.openai
Apache-2.0
基於CLIP框架的ResNet50x4變體模型,專為圖像特徵提取設計
圖像分類 Transformers
R
timm
170
0
Vit Large Patch14 Clip 224.dfn2b
其他
基於CLIP架構的視覺變換器模型,專注於圖像特徵提取,由蘋果公司發佈。
圖像分類 Transformers
V
timm
178
0
Vit Huge Patch14 Clip 224.dfn5b
其他
基於CLIP架構的ViT-Huge圖像編碼器,由蘋果公司發佈的DFN5B-CLIP模型,適用於視覺特徵提取任務。
圖像分類 Transformers
V
timm
128
0
Vit Base Patch16 Clip 224.dfn2b
其他
基於CLIP架構的視覺Transformer模型,由蘋果公司發佈的DFN2B-CLIP圖像編碼器權重
圖像分類 Transformers
V
timm
444
0
Vit Huge Patch14 Clip 224.laion2b
Apache-2.0
基於CLIP框架的ViT-Huge視覺編碼器,使用laion2B數據集訓練,支持圖像特徵提取
圖像分類 Transformers
V
timm
1,969
0
Vit Base Patch32 Clip 256.datacompxl
Apache-2.0
基於CLIP架構的視覺Transformer模型,專注於圖像特徵提取,支持256x256分辨率輸入
圖像分類 Transformers
V
timm
89
0
Vit Base Patch32 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,專為圖像特徵提取設計,使用laion2B數據集訓練
圖像分類 Transformers
V
timm
83
0
Vit Base Patch32 Clip 224.datacompxl
Apache-2.0
基於CLIP架構的視覺Transformer模型,專為圖像特徵提取設計,使用DataComp XL數據集訓練
圖像分類 Transformers
V
timm
13
0
Vit Base Patch16 Clip 224.datacompxl
Apache-2.0
基於CLIP架構的視覺Transformer模型,專門用於圖像特徵提取,採用ViT-B/16結構並在DataComp XL數據集上訓練
圖像分類 Transformers
V
timm
36
0
Convnext Base.clip Laiona
Apache-2.0
基於CLIP框架的ConvNeXt Base模型,使用LAION-Aesthetic數據集訓練,適用於圖像特徵提取任務。
圖像分類 Transformers
C
timm
14
0
Clip Vit Base Patch32 Stanford Cars
基於CLIP視覺變換器架構,在斯坦福汽車數據集上微調的視覺分類模型
圖像分類 Transformers
C
tanganke
4,143
1
Git Base One Piece
MIT
基於微軟git-base模型微調的視覺語言模型,專門為動漫《海賊王》圖像生成描述性文本字幕
圖像生成文本 Transformers 支持多種語言
G
ayoubkirouane
16
0
Taiyi CLIP Roberta 102M Chinese
Apache-2.0
首個開源的中文CLIP模型,基於1.23億圖文對進行預訓練,文本編碼器採用RoBERTa-base架構。
文本生成圖像 Transformers 中文
T
IDEA-CCNL
558
51
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase