L

Llama3.2 11B Vision Instruct INT4 GPTQ

由 fahadh4ilyas 开发
Llama 3.2-Vision是Meta开发的多模态大语言模型,具备图像推理和文本生成能力,支持视觉识别、图像描述和问答等任务。
下载量 1,770
发布时间 : 4/8/2025

模型简介

Llama 3.2-Vision是基于Llama 3.1纯文本模型构建的多模态大语言模型,通过视觉适配器支持图像输入,适用于视觉问答、图像描述等多种任务。

模型特点

多模态能力
同时处理图像和文本输入,实现跨模态理解和生成
大规模预训练
基于60亿(图像,文本)对数据进行训练,具备强大的视觉语言理解能力
长上下文支持
支持128k的上下文长度,适合处理复杂任务
高效推理
采用分组查询注意力(GQA)技术,提高推理效率

模型能力

图像理解
文本生成
视觉问答
图像描述
文档理解
视觉定位
图像-文本检索

使用案例

视觉问答
图像内容问答
回答关于图像内容的自然语言问题
准确理解图像内容并提供相关回答
文档处理
文档视觉问答
理解文档(如合同、地图)的文本和布局并回答问题
直接从文档图像中提取信息并回答问题
内容生成
图像描述生成
为图像生成详细的自然语言描述
生成准确、流畅的图像描述
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase