M

Minivla Wrist Vq Libero90 Prismatic

Stanford-ILIADによって開発
MiniVLAはロボット技術分野に特化した視覚言語動作モデルで、画像テキストからテキストへのマルチモーダルタスクをサポートします。
ダウンロード数 18
リリース時間 : 12/12/2024

モデル概要

MiniVLAは10億パラメータの視覚言語動作モデルで、ロボット技術向けに設計されており、画像とテキスト入力を処理してテキスト出力を生成できます。このモデルはPrismatic VLMsトレーニングスクリプトと互換性があり、完全なファインチューニングに適しています。

モデル特徴

Prismaticトレーニングスクリプト互換
Prismatic VLMsプロジェクトコードベースと互換性のある形式を採用しており、ネイティブPyTorch FSDPを使用した完全なファインチューニングが容易です
マルチモーダル処理能力
画像とテキスト入力を同時に処理し、テキスト出力を生成できます
ロボット技術向け最適化
ロボット技術のアプリケーションシナリオ向けに設計・最適化されています

モデル能力

画像理解
テキスト生成
マルチモーダル処理
ロボット制御

使用事例

ロボット技術
視覚言語ナビゲーション
ロボットが視覚と言語の指示に基づいてナビゲーションを行います
マルチモーダルインタラクション
ロボットが視覚と言語入力を理解し、それに応じて反応します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase