# 多語言視覺理解

Qwen2.5 VL 72B Instruct GGUF
其他
通義千問推出的多模態大模型,支持圖像文本生成和128k長上下文處理,具備多語言能力。
圖像生成文本 英語
Q
lmstudio-community
668
1
Internvl3 8B AWQ
其他
InternVL3-8B是OpenGVLab推出的先進多模態大語言模型,具備強大的多模態感知與推理能力,支持工具調用、GUI智能體、工業圖像分析、3D視覺感知等新領域。
圖像生成文本 Transformers 其他
I
OpenGVLab
1,441
3
Internvl3 2B Instruct
Apache-2.0
InternVL3-2B-Instruct是基於InternVL3-2B的監督微調版本,經過原生多模態預訓練和SFT處理,具備強大的多模態感知和推理能力。
文本生成圖像 Transformers 其他
I
OpenGVLab
1,345
4
Aya Vision 32b
Aya Vision 32B是Cohere實驗室開發的開放權重32B參數多模態模型,支持23種語言的視覺語言任務。
圖像生成文本 Transformers 支持多種語言
A
CohereLabs
387
193
Aya Vision 8b
Aya Vision 8B是一個開放權重的80億參數多語言視覺語言模型,支持23種語言的視覺和語言任務。
圖像生成文本 Transformers 支持多種語言
A
CohereLabs
29.94k
282
Colqwen2.5 3b Multilingual V1.0
MIT
基於Qwen2.5-VL-3B-Instruct並採用ColBERT策略的多語言視覺檢索器,在Vidore基準測試中表現優異
文本生成圖像 支持多種語言
C
Metric-AI
2,475
7
Erax VL 2B V1.5 I1 GGUF
Apache-2.0
EraX-VL-2B-V1.5是一個多模態基礎模型,支持越南語、英語和中文,具備圖像轉文本和圖文轉文本能力。
圖像生成文本 支持多種語言
E
mradermacher
467
0
Llama 3.2 11B Vision Instruct Abliterated 8 Bit
這是一個基於Llama-3.2-11B-Vision-Instruct的多模態模型,支持圖像和文本輸入,並生成文本輸出。
圖像生成文本 Transformers 支持多種語言
L
mlx-community
128
0
Pix2struct Screen2words Base
Apache-2.0
Pix2Struct是一個視覺語言理解模型,專為從UI界面截圖生成功能描述字幕而優化
圖像生成文本 Transformers 支持多種語言
P
google
262
24
Pix2struct Infographics Vqa Base
Apache-2.0
Pix2Struct是一種視覺語言理解模型,通過預訓練處理圖像到文本轉換任務,特別針對高分辨率信息圖表的視覺問答進行了優化。
圖像生成文本 Transformers 支持多種語言
P
google
74
8
Pix2struct Infographics Vqa Large
Apache-2.0
Pix2Struct是一種圖像編碼器-文本解碼器模型,通過多任務訓練處理視覺語言理解任務,特別針對高分辨率信息圖表的視覺問答進行了優化。
圖像生成文本 Transformers 支持多種語言
P
google
108
10
Pix2struct Textcaps Large
Apache-2.0
Pix2Struct是一個視覺語言理解模型,通過圖像到文本的轉換進行多任務訓練,支持圖像描述生成和視覺問答等任務。
圖像生成文本 Transformers 支持多種語言
P
google
128
14
Pix2struct Textcaps Base
Apache-2.0
Pix2Struct是一個視覺語言理解模型,通過預訓練和微調處理圖像到文本的任務,特別適用於圖像描述生成。
圖像生成文本 Transformers 支持多種語言
P
google
3,888
28
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase