Vit Bart Image Captioner
Apache-2.0
基於BART-Large和ViT的視覺語言模型,用於生成圖像的英文描述文本。
圖像生成文本
Safetensors 英語
V
SrujanTopalle
15
1
TITAN
TITAN是一個多模態全切片基礎模型,通過視覺自監督學習和視覺-語言對齊進行預訓練,用於病理學圖像分析。
多模態融合 英語
T
MahmoodLab
213.39k
37
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一種利用大型語言模型(LLM)釋放CLIP潛力的創新方法,通過對比學習框架提升文本判別性,突破原始CLIP文本編碼器的限制。
文本生成圖像
Safetensors
L
microsoft
108
5
LLM2CLIP Llama 3 8B Instruct CC Finetuned
Apache-2.0
LLM2CLIP是一種創新方法,通過大語言模型增強CLIP的跨模態能力,顯著提升視覺和文本表徵的判別力。
多模態融合
L
microsoft
18.16k
35
LLM2CLIP Openai B 16
Apache-2.0
LLM2CLIP是一種利用大語言模型(LLM)擴展CLIP能力的創新方法,通過對比學習框架提升文本判別性,顯著提升跨模態任務性能。
文本生成圖像
Safetensors
L
microsoft
1,154
18
LLM2CLIP EVA02 L 14 336
Apache-2.0
LLM2CLIP是一種創新方法,通過大語言模型(LLM)增強CLIP的視覺表徵能力,顯著提升跨模態任務性能
文本生成圖像
PyTorch
L
microsoft
75
60
Vit Large Patch14 Clip 224.metaclip 400m
基於MetaCLIP-400M數據集訓練的視覺變換器模型,支持零樣本圖像分類任務
圖像分類
V
timm
294
0
Vit Base Patch32 Clip 224.metaclip 2pt5b
基於MetaCLIP-2.5B數據集訓練的視覺Transformer模型,兼容open_clip和timm框架
圖像分類
V
timm
5,571
0
Clip Finetuned Csu P14 336 E3l57 L
該模型是基於openai/clip-vit-large-patch14-336微調的版本,主要用於圖像-文本匹配任務。
文本生成圖像
Transformers

C
kevinoli
31
0
Cambrian 8b
Apache-2.0
寒武紀是一個開源的以視覺為核心設計的 multimodal LLM(多模態大語言模型)。
文本生成圖像
Transformers

C
nyu-visionx
565
63
Internvit 6B 448px V1 0
MIT
InternViT-6B-448px-V1-0是一個視覺基礎模型,專注於圖像特徵提取,支持448x448分辨率,增強了OCR能力和中文對話支持。
文本生成圖像
Transformers

I
OpenGVLab
24
10
CLIP ViT B 16 CommonPool.L.image S1b B8k
MIT
基於CLIP架構的視覺語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
70
0
Plip
CLIP是一個多模態視覺語言模型,能夠將圖像和文本映射到共享的嵌入空間,實現零樣本圖像分類和跨模態檢索。
文本生成圖像
Transformers

P
vinid
177.58k
45
M BERT Distil 40
基於distilbert-base-multilingual的模型,調整以匹配40種語言的嵌入空間,與CLIP文本編碼器的嵌入空間相匹配。
文本生成圖像
Transformers 支持多種語言

M
M-CLIP
46
8
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98