# 视觉-语言对齐

Vit Bart Image Captioner
Apache-2.0
基于BART-Large和ViT的视觉语言模型,用于生成图像的英文描述文本。
图像生成文本 Safetensors 英语
V
SrujanTopalle
15
1
TITAN
TITAN是一个多模态全切片基础模型,通过视觉自监督学习和视觉-语言对齐进行预训练,用于病理学图像分析。
多模态融合 英语
T
MahmoodLab
213.39k
37
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一种利用大型语言模型(LLM)释放CLIP潜力的创新方法,通过对比学习框架提升文本判别性,突破原始CLIP文本编码器的限制。
文本生成图像 Safetensors
L
microsoft
108
5
LLM2CLIP Llama 3 8B Instruct CC Finetuned
Apache-2.0
LLM2CLIP是一种创新方法,通过大语言模型增强CLIP的跨模态能力,显著提升视觉和文本表征的判别力。
多模态融合
L
microsoft
18.16k
35
LLM2CLIP Openai B 16
Apache-2.0
LLM2CLIP是一种利用大语言模型(LLM)扩展CLIP能力的创新方法,通过对比学习框架提升文本判别性,显著提升跨模态任务性能。
文本生成图像 Safetensors
L
microsoft
1,154
18
LLM2CLIP EVA02 L 14 336
Apache-2.0
LLM2CLIP是一种创新方法,通过大语言模型(LLM)增强CLIP的视觉表征能力,显著提升跨模态任务性能
文本生成图像 PyTorch
L
microsoft
75
60
Vit Large Patch14 Clip 224.metaclip 400m
基于MetaCLIP-400M数据集训练的视觉变换器模型,支持零样本图像分类任务
图像分类
V
timm
294
0
Vit Base Patch32 Clip 224.metaclip 2pt5b
基于MetaCLIP-2.5B数据集训练的视觉Transformer模型,兼容open_clip和timm框架
图像分类
V
timm
5,571
0
Clip Finetuned Csu P14 336 E3l57 L
该模型是基于openai/clip-vit-large-patch14-336微调的版本,主要用于图像-文本匹配任务。
文本生成图像 Transformers
C
kevinoli
31
0
Cambrian 8b
Apache-2.0
寒武纪是一个开源的以视觉为核心设计的 multimodal LLM(多模态大语言模型)。
文本生成图像 Transformers
C
nyu-visionx
565
63
Internvit 6B 448px V1 0
MIT
InternViT-6B-448px-V1-0是一个视觉基础模型,专注于图像特征提取,支持448x448分辨率,增强了OCR能力和中文对话支持。
文本生成图像 Transformers
I
OpenGVLab
24
10
CLIP ViT B 16 CommonPool.L.image S1b B8k
MIT
基于CLIP架构的视觉语言模型,支持零样本图像分类任务
文本生成图像
C
laion
70
0
Plip
CLIP是一个多模态视觉语言模型,能够将图像和文本映射到共享的嵌入空间,实现零样本图像分类和跨模态检索。
文本生成图像 Transformers
P
vinid
177.58k
45
M BERT Distil 40
基于distilbert-base-multilingual的模型,调整以匹配40种语言的嵌入空间,与CLIP文本编码器的嵌入空间相匹配。
文本生成图像 Transformers 支持多种语言
M
M-CLIP
46
8
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase