O

Omnilmm 12B

由 openbmb 开发
OmniLMM-12B是基于EVA02-5B和Zephyr-7B-β构建的多模态大模型,通过感知器重采样层连接,采用渐进式课程学习策略训练,具有卓越性能、可信行为和实时多模态交互能力。
下载量 251
发布时间 : 1/31/2024

模型简介

OmniLMM-12B是一个强大的视觉问答模型,结合了视觉和语言理解能力,能够处理复杂的多模态任务,并在多个基准测试中表现出色。

模型特点

卓越性能
在MME、MMBench、SEED-Bench等多个基准测试中超越现有LMMs,具备丰富的跨模态世界知识。
可信行为
首个通过多模态RLHF对齐技术实现可信行为的开源前沿模型,在MMHal-Bench和Object HalBench上表现优异。
实时多模态交互
与GPT-3.5结合打造实时多模态交互助手,可接收摄像头视频流和麦克风语音流,并输出语音响应。

模型能力

视觉问答
多模态理解
实时交互
跨模态知识应用

使用案例

教育
视觉问答辅助学习
帮助学生通过图像和文本结合的方式理解复杂概念。
提升学习效率和理解深度
智能助手
实时多模态交互
通过摄像头和麦克风与用户进行实时交互,提供语音响应。
实现类似Gemini演示视频中的趣味案例
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase