# 視頻問答

Videochat R1 7B
Apache-2.0
VideoChat-R1_7B 是一個基於 Qwen2.5-VL-7B-Instruct 的多模態視頻理解模型,能夠處理視頻和文本輸入,生成文本輸出。
視頻生成文本 Transformers 英語
V
OpenGVLab
1,686
7
Llava Video 7B Qwen2 TPO
MIT
LLaVA-Video-7B-Qwen2-TPO是基於LLaVA-Video-7B-Qwen2進行時間偏好優化的視頻理解模型,在多個基準測試中表現優異。
視頻生成文本 Transformers
L
ruili0
490
1
Mplug Owl3 1B 241014
Apache-2.0
mPLUG-Owl3 是一款先進的多模態大語言模型,專注於解決長圖像序列理解的挑戰,通過超注意力機制顯著提升處理速度和序列長度。
文本生成圖像 英語
M
mPLUG
617
2
Auroracap 7B VID Xtuner
Apache-2.0
AuroraCap是一個用於圖像和視頻字幕的多模態大語言模型,專注於高效和詳細的視頻字幕生成。
視頻生成文本
A
wchai
31
5
Llava Video 7B Qwen2
Apache-2.0
LLaVA-視頻模型是基於Qwen2語言模型的7B參數多模態模型,專注於視頻理解任務,支持64幀視頻輸入。
視頻生成文本 Transformers 英語
L
lmms-lab
34.28k
91
Tarsier 7b
Tarsier-7b 是 Tarsier 系列的開源大規模視頻語言模型,專注於生成高質量視頻描述並具備優秀的通用視頻理解能力。
視頻生成文本 Transformers
T
omni-research
635
23
Cogvlm2 Video Llama3 Chat
其他
CogVLM2-Video是一款高性能視頻理解模型,在多項視頻問答任務中實現最先進性能表現,能在一分鐘內完成視頻理解。
文本生成視頻 Transformers 英語
C
THUDM
2,384
48
Llava NeXT Video 7B DPO Hf
LLaVA-NeXT-Video是一個開源多模態聊天機器人,通過視頻和圖像數據混合訓練優化,具備優秀的視頻理解能力。
視頻生成文本 Transformers 英語
L
llava-hf
12.61k
9
Llava NeXT Video 7B Hf
LLaVA-NeXT-Video是一個開源多模態聊天機器人,通過視頻和圖像數據混合訓練獲得優秀的視頻理解能力,在VideoMME基準上達到開源模型SOTA水平。
文本生成視頻 Transformers 英語
L
llava-hf
65.95k
88
Git Large Msrvtt Qa
MIT
GIT是一種基於CLIP圖像標記和文本標記的雙條件Transformer解碼器,專為MSRVTT-QA任務微調。
圖像生成文本 Transformers 支持多種語言
G
microsoft
108
2
Git Base Msrvtt Qa
MIT
GIT是一種基於CLIP圖像標記和文本標記的Transformer解碼器,用於視覺與語言任務。
圖像生成文本 Transformers 支持多種語言
G
microsoft
84
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase