L

Llava NeXT Video 7B DPO

lmms-labによって開発
LLaVA-Next-Videoはオープンソースのマルチモーダルダイアログモデルで、大規模言語モデルをマルチモーダル指示追従データで微調整しており、ビデオとテキストのマルチモーダルインタラクションをサポートします。
ダウンロード数 8,049
リリース時間 : 4/16/2024

モデル概要

LLaVA-Next-VideoはVicuna-7Bをベースにしたマルチモーダルダイアログモデルで、ビデオとテキストのマルチモーダルインタラクションに特化しており、マルチモーダルダイアログシステムの研究開発に適しています。

モデル特徴

マルチモーダルインタラクション
ビデオとテキストのマルチモーダル入力をサポートし、ビデオ内容に関連したテキスト応答を生成できます。
指示追従
マルチモーダル指示追従データによる微調整で、複雑なマルチモーダル指示を理解し実行できます。
オープンソースモデル
完全なオープンソースで、研究者や開発者が二次開発やカスタマイズを容易に行えます。

モデル能力

ビデオ内容理解
マルチモーダルダイアログ生成
指示追従
ビデオ質問応答

使用事例

研究
マルチモーダルダイアログシステム研究
マルチモーダルダイアログシステムの研究開発に使用され、ビデオとテキストのインタラクション方法を探求します。
教育
ビデオ内容の質問応答
教育現場で、ビデオ内容に基づいた質問応答や説明を生成するために使用されます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase