V

Videollm Online 8b V1plus

chenjoyaによって開発
VideoLLM-onlineはLlama-3-8B-Instructをベースとしたマルチモーダル大規模言語モデルで、オンライン動画理解と動画-テキスト生成タスクに特化しています。
ダウンロード数 1,688
リリース時間 : 6/22/2024

モデル概要

このモデルは視覚と言語処理能力を統合し、最大10分間の動画ストリームをリアルタイムで処理可能で、2-10フレーム/秒のフレームレート分析をサポートし、オンライン動画理解とインタラクティブなアプリケーションシーンに適しています。

モデル特徴

リアルタイム動画処理
2-10フレーム/秒のリアルタイム動画ストリーム処理をサポートし、最大10分間の動画コンテンツを処理可能
マルチモーダル理解
視覚エンコーダー(SigLIP)と言語モデル(Llama-3)を統合し、動画コンテンツの深い理解を実現
効率的な視覚エンコーディング
CLSトークン+平均プーリングの3x3トークン戦略を採用し、384解像度で効率的な処理を維持
大規模トレーニングデータ
Ego4Dデータセットの134K動画サンプルを使用してトレーニングされ、多様なシーンを網羅

モデル能力

オンライン動画理解
動画コンテンツ記述生成
マルチモーダル推論
リアルタイム動画インタラクション

使用事例

動画分析
動画コンテンツ要約
長尺動画の内容要約を自動生成
10分間の動画を処理し正確な要約を生成可能
リアルタイム動画QA
再生中の動画コンテンツに対してリアルタイムで質問応答
2-10フレーム/秒のリアルタイム応答をサポート
人間-コンピュータインタラクション
動画支援対話
動画コンテンツに基づく自然言語対話システム
ユーザーと動画コンテンツについて深い対話が可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase