Llava V1.5 Mlp2x 336px Pretrain Vicuna 13b V1.5
LLaVAはオープンソースのマルチモーダルチャットボットで、LLaMA/VicunaをGPT生成のマルチモーダル指示追従データでファインチューニングして作成されました。
Downloads 66
Release Time : 10/5/2023
Model Overview
LLaVAはTransformerアーキテクチャに基づく自己回帰型言語モデルで、主に大規模マルチモーダルモデルとチャットボットの研究に使用されます。
Model Features
マルチモーダル能力
視覚と言語理解能力を統合し、画像とテキスト入力を処理可能
指示追従
ファインチューニングにより、複雑なマルチモーダル指示を理解・実行可能
オープンソースで拡張可能
オープンソースモデルを基盤としており、研究や拡張が容易
Model Capabilities
画像理解
視覚的質問応答
画像キャプション生成
マルチモーダル対話
指示追従
Use Cases
研究
マルチモーダルモデル研究
視覚言語モデルの能力と限界を探求するために使用
人間とコンピュータの相互作用研究
視覚ベースの対話システムを研究
アプリケーション開発
インテリジェントアシスタント
画像内容を理解できるインテリジェント対話アシスタントを開発
教育ツール
画像内容を説明できる教育アプリケーションを作成
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98