# 视觉推理

Vilt Gqa Ft
基于ViLT架构的视觉语言模型,专为GQA视觉推理任务微调
文本生成图像 Transformers
V
phucd
62
0
VL Rethinker 7B 6bit
Apache-2.0
这是一个基于Qwen2.5-VL-7B-Instruct的多模态模型,支持视觉问答任务,已转换为MLX格式以便在Apple芯片上高效运行。
文本生成图像 Transformers 英语
V
mlx-community
19
0
VL Rethinker 72B 8bit
Apache-2.0
该模型是基于Qwen2.5-VL-7B-Instruct转换而来的多模态视觉语言模型,支持8位量化,适用于视觉问答任务。
文本生成图像 Transformers 英语
V
mlx-community
18
0
Idefics3 8B Llama3
Apache-2.0
Idefics3是一个开源的多模态模型,能够处理任意序列的图像和文本输入并生成文本输出。它在OCR、文档理解和视觉推理方面有显著提升。
图像生成文本 Transformers 英语
I
HuggingFaceM4
45.86k
277
Idefics2 8b Chatty
Apache-2.0
Idefics2 是一个开放的多模态模型,能够接受任意序列的图像和文本输入并生成文本输出。该模型可以回答关于图像的问题、描述视觉内容、基于多张图像创作故事,或仅作为纯语言模型使用。
图像生成文本 Transformers 英语
I
HuggingFaceM4
617
94
MATCHA ViChart
ChartQA 是一个视觉问答模型,专注于从图表中提取信息并回答相关问题。
文本生成图像 Transformers 其他
M
TeeA
16
0
Llava Llama 2 13b Chat Lightning Preview
LLaVA是一个开源多模态聊天机器人模型,基于Transformer架构,通过在GPT生成的多模态指令跟随数据上微调LLaMA/Vicuna而得。
文本生成图像 Transformers
L
liuhaotian
2,122
46
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase