# 視覺語言聯合建模

Vica2 Stage2 Onevision Ft
Apache-2.0
ViCA2是一個7B參數規模的多模態視覺語言模型,專注於視頻理解和視覺空間認知任務。
視頻生成文本 Transformers 英語
V
nkkbr
63
0
Paligemma Multimodal Query Rewrite
基於google/paligemma-3b-pt-224微調的多模態查詢重寫模型
圖像生成文本 Transformers
P
utischoolnlp
31
1
Llava V1.6 Vicuna 7b
LLaVA是一款開源的多模態聊天機器人,通過對多模態指令跟隨數據進行大語言模型微調訓練而成。
文本生成圖像 Transformers
L
liuhaotian
31.65k
123
Eilev Blip2 Opt 2.7b
MIT
基於BLIP-2-OPT-2.7B訓練的第一人稱視角視頻優化視覺語言模型,採用EILEV創新方法激發上下文學習能力
圖像生成文本 Transformers 英語
E
kpyu
214
4
Llava Int4
CC
LLaVA是一個多模態大模型,通過連接視覺編碼器與大語言模型實現通用視覺助手功能
文本生成圖像 Transformers
L
emon-j
40
2
Matcha Chartqa
Apache-2.0
MatCha是一個增強視覺語言模型處理圖表與語言數據能力的預訓練模型,在圖表問答任務上表現優異
文本生成圖像 Transformers 支持多種語言
M
google
1,060
41
Matcha Chart2text Statista
Apache-2.0
基於Chart2text-statista數據集微調的視覺語言模型,擅長圖表理解和數值推理
圖像生成文本 Transformers 支持多種語言
M
google
73
10
Matcha Chart2text Pew
Apache-2.0
MatCha是基於Pix2Struct架構的視覺語言模型,專門針對圖表理解和數值推理任務進行優化,在圖表問答任務中表現優異
圖像生成文本 Transformers 支持多種語言
M
google
168
39
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase