# マルチモーダル動画理解

Cosmos Reason1 7B GGUF
その他
Cosmos-Reason1はNVIDIAが開発した物理AIモデルで、物理常識を理解し、長鎖思考推論を通じて身体化された意思決定の自然言語を生成できます。
テキスト生成ビデオ Transformers 英語
C
unsloth
6,690
1
Qwen2.5 VL 32B Instruct GGUF
Apache-2.0
Qwen2.5-VL-32B-Instructは、マルチモーダルタスクに適した、強化された数学力と問題解決能力を備えた強力なビジュアル言語モデルです。
画像生成テキスト 英語
Q
unsloth
464
1
Cosmos Reason1 7B
その他
Cosmos-Reason1はNVIDIAが開発した物理AIモデルで、物理常識を理解し長鎖思考推論を通じて身体性意思決定を生成できます。
Transformers 英語
C
nvidia
18.56k
72
Anon
Apache-2.0
lmms-lab/llava-onevision-qwen2-7b-ovモデルを基にファインチューニングしたバージョンで、動画テキストからテキストへの変換タスクをサポートします。
英語
A
aiden200
361
0
Internvideo2 Stage2 6B
MIT
InternVideo2は6Bパラメータ規模のマルチモーダル動画理解モデルで、動画コンテンツの分析と理解タスクに特化しています。
ビデオ生成テキスト
I
OpenGVLab
542
0
Qwen2.5 VL 72B Instruct Pointer AWQ
その他
Qwen2.5-VLはQwenファミリーの最新の視覚言語モデルで、強化された視覚理解、エージェント能力、構造化出力生成機能を備えています。
画像生成テキスト Transformers 英語
Q
PointerHQ
5,592
8
VL3 SigLIP NaViT
Apache-2.0
VideoLLaMA3のビジュアルエンコーダで、任意解像度ビジュアルトークン化(AVT)技術を採用し、異なる解像度の画像や動画を動的に処理します。
テキスト生成画像 Transformers 英語
V
DAMO-NLP-SG
25.55k
8
Videollama2.1 7B 16F Base
Apache-2.0
VideoLLaMA2.1はVideoLLaMA2のアップグレード版で、ビデオ大規模言語モデルにおける時空間モデリングと音声理解能力の向上に焦点を当てています。
ビデオ生成テキスト Transformers 英語
V
DAMO-NLP-SG
179
1
Videollama2.1 7B 16F
Apache-2.0
VideoLLaMA 2はマルチモーダル大規模言語モデルで、動画理解に特化し、時空間モデリングと音声理解能力を備えています。
テキスト生成ビデオ Transformers 英語
V
DAMO-NLP-SG
2,813
10
Videollama2 72B
Apache-2.0
VideoLLaMA 2はマルチモーダル大規模言語モデルで、動画理解と時空間モデリングに特化しており、動画や画像の入力をサポートし、視覚的質問応答や対話タスクが可能です。
テキスト生成ビデオ Transformers 英語
V
DAMO-NLP-SG
26
10
Videollama2 8x7B Base
Apache-2.0
VideoLLaMA 2は次世代の動画大規模言語モデルで、時空間モデリング能力と音声理解能力の向上に焦点を当て、マルチモーダル動画質問応答や記述タスクをサポートします。
テキスト生成ビデオ Transformers 英語
V
DAMO-NLP-SG
20
2
Videollama2 8x7B
Apache-2.0
VideoLLaMA 2はマルチモーダル大規模言語モデルで、動画理解と音声処理に特化しており、動画や画像入力を処理し自然言語応答を生成できます。
テキスト生成ビデオ Transformers 英語
V
DAMO-NLP-SG
21
3
Llava NeXT Video 34B Hf
LLaVA-NeXT-Videoはオープンソースのマルチモーダルチャットボットで、動画と画像データの混合トレーニングにより優れた動画理解能力を備えています。
テキスト生成ビデオ Transformers 英語
L
llava-hf
2,232
7
Llava NeXT Video 7B DPO Hf
LLaVA-NeXT-Videoはオープンソースのマルチモーダルチャットボットで、動画と画像データの混合トレーニングにより最適化され、優れた動画理解能力を備えています。
ビデオ生成テキスト Transformers 英語
L
llava-hf
12.61k
9
Llava NeXT Video 7B Hf
LLaVA-NeXT-Videoはオープンソースのマルチモーダルチャットボットで、動画と画像データの混合トレーニングにより優れた動画理解能力を獲得し、VideoMMEベンチマークでオープンソースモデルのSOTAレベルを達成しました。
テキスト生成ビデオ Transformers 英語
L
llava-hf
65.95k
88
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase