Vit Bart Image Captioner
Apache-2.0
基于BART-Large和ViT的视觉语言模型,用于生成图像的英文描述文本。
图像生成文本
Safetensors 英语
V
SrujanTopalle
15
1
TITAN
TITAN是一个多模态全切片基础模型,通过视觉自监督学习和视觉-语言对齐进行预训练,用于病理学图像分析。
多模态融合 英语
T
MahmoodLab
213.39k
37
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一种利用大型语言模型(LLM)释放CLIP潜力的创新方法,通过对比学习框架提升文本判别性,突破原始CLIP文本编码器的限制。
文本生成图像
Safetensors
L
microsoft
108
5
LLM2CLIP Llama 3 8B Instruct CC Finetuned
Apache-2.0
LLM2CLIP是一种创新方法,通过大语言模型增强CLIP的跨模态能力,显著提升视觉和文本表征的判别力。
多模态融合
L
microsoft
18.16k
35
LLM2CLIP Openai B 16
Apache-2.0
LLM2CLIP是一种利用大语言模型(LLM)扩展CLIP能力的创新方法,通过对比学习框架提升文本判别性,显著提升跨模态任务性能。
文本生成图像
Safetensors
L
microsoft
1,154
18
LLM2CLIP EVA02 L 14 336
Apache-2.0
LLM2CLIP是一种创新方法,通过大语言模型(LLM)增强CLIP的视觉表征能力,显著提升跨模态任务性能
文本生成图像
PyTorch
L
microsoft
75
60
Vit Large Patch14 Clip 224.metaclip 400m
基于MetaCLIP-400M数据集训练的视觉变换器模型,支持零样本图像分类任务
图像分类
V
timm
294
0
Vit Base Patch32 Clip 224.metaclip 2pt5b
基于MetaCLIP-2.5B数据集训练的视觉Transformer模型,兼容open_clip和timm框架
图像分类
V
timm
5,571
0
Clip Finetuned Csu P14 336 E3l57 L
该模型是基于openai/clip-vit-large-patch14-336微调的版本,主要用于图像-文本匹配任务。
文本生成图像
Transformers

C
kevinoli
31
0
Cambrian 8b
Apache-2.0
寒武纪是一个开源的以视觉为核心设计的 multimodal LLM(多模态大语言模型)。
文本生成图像
Transformers

C
nyu-visionx
565
63
Internvit 6B 448px V1 0
MIT
InternViT-6B-448px-V1-0是一个视觉基础模型,专注于图像特征提取,支持448x448分辨率,增强了OCR能力和中文对话支持。
文本生成图像
Transformers

I
OpenGVLab
24
10
CLIP ViT B 16 CommonPool.L.image S1b B8k
MIT
基于CLIP架构的视觉语言模型,支持零样本图像分类任务
文本生成图像
C
laion
70
0
Plip
CLIP是一个多模态视觉语言模型,能够将图像和文本映射到共享的嵌入空间,实现零样本图像分类和跨模态检索。
文本生成图像
Transformers

P
vinid
177.58k
45
M BERT Distil 40
基于distilbert-base-multilingual的模型,调整以匹配40种语言的嵌入空间,与CLIP文本编码器的嵌入空间相匹配。
文本生成图像
Transformers 支持多种语言

M
M-CLIP
46
8
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98