L

Llava V1.5 13B AWQ

TheBlokeによって開発
LLaVAはオープンソースのマルチモーダルチャットボットで、GPTが生成したマルチモーダル命令追従データを用いてLLaMA/Vicunaをファインチューニングしてトレーニングされています。
ダウンロード数 141
リリース時間 : 10/15/2023

モデル概要

LLaVAはトランスフォーマーアーキテクチャに基づく自己回帰型言語モデルで、画像に関連するテキスト内容を理解し生成することができます。

モデル特徴

マルチモーダル理解
画像とテキスト入力を同時に処理し、両者の関係を理解できる
命令追従
複雑なマルチモーダル命令に従ってタスクを実行できる
オープンソース
モデルは完全にオープンソースで、研究や商業利用が可能

モデル能力

視覚的質問応答
画像説明生成
マルチモーダル対話
命令追従

使用事例

研究
マルチモーダルモデル研究
大規模マルチモーダルモデルの行動と能力を研究するために使用
教育
視覚的補助学習
画像を通じて複雑な概念を理解するのを学生に支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase