# 跨模態對齊

Openvision Vit Huge Patch14 224
Apache-2.0
OpenVision是一個全開放、高性價比的先進視覺編碼器家族,專注於多模態學習。
多模態融合
O
UCSC-VLAA
27
2
Openvision Vit Base Patch8 384
Apache-2.0
OpenVision是一個完全開源且經濟高效的先進視覺編碼器家族,專為多模態學習設計。
多模態融合 Transformers
O
UCSC-VLAA
47
0
Unime Phi3.5 V 4.2B
MIT
UniME 是一個基於多模態大模型的通用嵌入學習模型,專注於打破模態壁壘,實現跨模態檢索和嵌入學習。
多模態對齊 Transformers 英語
U
DeepGlint-AI
54
4
Resnet50x4 Clip Gap.openai
Apache-2.0
基於CLIP框架的ResNet50x4變體模型,專為圖像特徵提取設計
圖像分類 Transformers
R
timm
170
0
Resnet50 Clip Gap.cc12m
Apache-2.0
基於ResNet50架構的CLIP風格圖像編碼器,使用CC12M數據集訓練,通過全局平均池化(GAP)提取特徵
圖像分類 Transformers
R
timm
19
0
Vit So400m Patch16 Siglip 256.webli I18n
Apache-2.0
基於SigLIP的視覺Transformer模型,專注於圖像特徵提取,採用原始注意力池化機制。
圖像分類 Transformers
V
timm
15
0
Vit Large Patch14 Clip 224.datacompxl
Apache-2.0
基於CLIP架構的視覺Transformer模型,專門用於圖像特徵提取,由LAION組織發佈。
圖像分類 Transformers
V
timm
14
0
Vit Huge Patch14 Clip 224.metaclip Altogether
基於ViT-Huge架構的CLIP模型,支持零樣本圖像分類任務
圖像分類
V
timm
171
1
Mast3r ViTLarge BaseDecoder 512 Catmlpdpt Metric
MASt3R是一個基於ViT架構的圖像轉3D模型,能夠實現圖像與3D空間的匹配
3D視覺
M
naver
116.60k
15
Vitamin XL 384px
MIT
ViTamin-XL-384px 是一個基於 ViTamin 架構的大規模視覺語言模型,專為視覺語言任務設計,支持高分辨率圖像處理和多模態特徵提取。
圖像生成文本 Transformers
V
jienengchen
104
20
Clip Flant5 Xl
Apache-2.0
專為圖像-文本檢索任務微調的視覺-語言生成模型,基於google/flan-t5-xl改進
文本生成圖像 Transformers 英語
C
zhiqiulin
13.44k
2
Clip Flant5 Xxl
Apache-2.0
基於google/flan-t5-xxl微調的視覺語言生成模型,專為圖像文本檢索任務設計
圖像生成文本 Transformers 英語
C
zhiqiulin
86.23k
2
Mblip Bloomz 7b
MIT
mBLIP是一個多語言視覺-語言模型,基於BLIP-2架構,支持96種語言的圖像描述生成和視覺問答任務。
圖像生成文本 Transformers 支持多種語言
M
Gregor
21
1
Mblip Mt0 Xl
MIT
mBLIP是一個多語言視覺-語言模型,基於BLIP-2架構,支持96種語言的圖像描述生成和視覺問答任務。
圖像生成文本 Transformers 支持多種語言
M
Gregor
374
14
Blip2 Image To Text
MIT
BLIP-2是一種視覺語言預訓練模型,通過凍結圖像編碼器和大型語言模型實現語言-圖像預訓練引導。
圖像生成文本 Transformers 英語
B
paragon-AI
343
27
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase