# 視覺-語言對齊

Vit Bart Image Captioner
Apache-2.0
基於BART-Large和ViT的視覺語言模型,用於生成圖像的英文描述文本。
圖像生成文本 Safetensors 英語
V
SrujanTopalle
15
1
TITAN
TITAN是一個多模態全切片基礎模型,通過視覺自監督學習和視覺-語言對齊進行預訓練,用於病理學圖像分析。
多模態融合 英語
T
MahmoodLab
213.39k
37
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一種利用大型語言模型(LLM)釋放CLIP潛力的創新方法,通過對比學習框架提升文本判別性,突破原始CLIP文本編碼器的限制。
文本生成圖像 Safetensors
L
microsoft
108
5
LLM2CLIP Llama 3 8B Instruct CC Finetuned
Apache-2.0
LLM2CLIP是一種創新方法,通過大語言模型增強CLIP的跨模態能力,顯著提升視覺和文本表徵的判別力。
多模態融合
L
microsoft
18.16k
35
LLM2CLIP Openai B 16
Apache-2.0
LLM2CLIP是一種利用大語言模型(LLM)擴展CLIP能力的創新方法,通過對比學習框架提升文本判別性,顯著提升跨模態任務性能。
文本生成圖像 Safetensors
L
microsoft
1,154
18
LLM2CLIP EVA02 L 14 336
Apache-2.0
LLM2CLIP是一種創新方法,通過大語言模型(LLM)增強CLIP的視覺表徵能力,顯著提升跨模態任務性能
文本生成圖像 PyTorch
L
microsoft
75
60
Vit Large Patch14 Clip 224.metaclip 400m
基於MetaCLIP-400M數據集訓練的視覺變換器模型,支持零樣本圖像分類任務
圖像分類
V
timm
294
0
Vit Base Patch32 Clip 224.metaclip 2pt5b
基於MetaCLIP-2.5B數據集訓練的視覺Transformer模型,兼容open_clip和timm框架
圖像分類
V
timm
5,571
0
Clip Finetuned Csu P14 336 E3l57 L
該模型是基於openai/clip-vit-large-patch14-336微調的版本,主要用於圖像-文本匹配任務。
文本生成圖像 Transformers
C
kevinoli
31
0
Cambrian 8b
Apache-2.0
寒武紀是一個開源的以視覺為核心設計的 multimodal LLM(多模態大語言模型)。
文本生成圖像 Transformers
C
nyu-visionx
565
63
Internvit 6B 448px V1 0
MIT
InternViT-6B-448px-V1-0是一個視覺基礎模型,專注於圖像特徵提取,支持448x448分辨率,增強了OCR能力和中文對話支持。
文本生成圖像 Transformers
I
OpenGVLab
24
10
CLIP ViT B 16 CommonPool.L.image S1b B8k
MIT
基於CLIP架構的視覺語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
70
0
Plip
CLIP是一個多模態視覺語言模型,能夠將圖像和文本映射到共享的嵌入空間,實現零樣本圖像分類和跨模態檢索。
文本生成圖像 Transformers
P
vinid
177.58k
45
M BERT Distil 40
基於distilbert-base-multilingual的模型,調整以匹配40種語言的嵌入空間,與CLIP文本編碼器的嵌入空間相匹配。
文本生成圖像 Transformers 支持多種語言
M
M-CLIP
46
8
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase