M

Moe LLaVA StableLM 1.6B 4e

由LanguageBind開發
MoE-LLaVA是一種基於專家混合架構的大規模視覺語言模型,通過稀疏激活參數實現高效的多模態學習。
下載量 125
發布時間 : 1/23/2024

模型概述

該模型採用專家混合架構,專注於視覺語言理解任務,能夠在多項基準測試中達到或超越更大規模模型的性能。

模型特點

高效參數利用
僅需30億稀疏激活參數即可達到7B規模模型的性能
卓越性能
在多項視覺理解任務上達到LLaVA-1.5-7B水平,部分任務超越13B模型
高效訓練
可在8張V100顯卡上2日內完成訓練

模型能力

視覺語言理解
多模態學習
圖像分析
文本生成

使用案例

視覺理解
圖像描述生成
為輸入圖像生成準確的文字描述
在物體幻覺基準測試中表現優異
視覺問答
回答關於圖像內容的複雜問題
達到或超越更大規模模型的性能
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase