M

Moondream1

vikhyatkによって開発
16億パラメータのマルチモーダルモデル、SigLIPとPhi-1.5技術アーキテクチャを融合、画像理解と質問応答タスクをサポート
ダウンロード数 70.48k
リリース時間 : 1/20/2024

モデル概要

LLaVaトレーニングデータセットに基づく視覚言語モデル、画像内容理解と対話型質問応答に優れ、研究シナリオに適している

モデル特徴

軽量で効率的
わずか16億パラメータ規模で70億パラメータモデルに近い視覚理解能力を実現
マルチモーダル融合
視覚エンコーダ(SigLIP)と言語モデル(Phi-1.5)の利点を組み合わせ
中国語最適化
中国語シナリオ向けに特別に最適化、中国語の質問応答インタラクションをサポート

モデル能力

画像内容認識
視覚質問応答
シーン理解
物体属性分析
マルチターン対話

使用事例

教育研究
画像学習支援
教材の挿絵内容を解析し関連質問に回答
図中の書籍タイトルやシーン詳細を正確に認識
インテリジェントインタラクション
シーン質問応答システム
ユーザーアップロード画像に対するリアルタイム質問応答
画像中の物体、人物動作、環境特徴を正確に記述可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase