Llava Lightning 7B Delta V1 1
LLaVAはLLaMA/VicunaをベースにGPTで生成したマルチモーダル指示追従データでファインチューニングされたオープンソースチャットボットです
Downloads 699
Release Time : 5/3/2023
Model Overview
視覚と言語理解を統合したマルチモーダル大規模モデルで、主に学術研究分野のマルチモーダルインタラクションと指示追従タスクに使用されます
Model Features
マルチモーダル融合
視覚と言語理解能力を統合し、画像とテキストの共同入力を処理可能
指示追従
GPT生成の指示データでファインチューニングされ、複雑なマルチモーダル指示に従える
軽量トレーニング
Lightning版は最適化されたトレーニングを経ており、オリジナル版より効率的
Model Capabilities
画像理解
視覚的質問応答
マルチモーダル対話
画像キャプション生成
複雑な視覚的推論
Use Cases
学術研究
マルチモーダルインタラクション研究
視覚と言語モデル統合のインタラクション方法を探求するために使用
視覚的推論ベンチマークテスト
ScienceQAなどのデータセットでマルチモーダル理解能力を評価
GPT-4と協調して現在の最高性能を達成
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98