S

Spatialvla 4b Mix 224 Pt

IPEC-COMMUNITYによって開発
SpatialVLAは視覚-言語-動作モデルで、基礎モデルをフラクタルとブリッジデータセットでファインチューニングしており、ロボット制御タスク専用に設計されています。
ダウンロード数 72
リリース時間 : 1/26/2025

モデル概要

このモデルは主に言語指令と視覚入力をロボット動作に変換するために使用され、汎用ロボット戦略開発に適しています。

モデル特徴

視覚-言語-動作統合
視覚入力と言語指令を同時に処理し、ロボット動作シーケンスを出力可能
大規模事前学習
Open X-EmbodimentとRH20Tの110万件の実ロボット実演データで事前学習済み
ドメイン適応ファインチューニング
特定タスク向けにフラクタルとブリッジデータセットで最適化
空間理解能力
空間関係の理解と表現に特に重点を置いている

モデル能力

視覚-言語理解
ロボット動作生成
空間関係推論
マルチモーダルタスク処理

使用事例

ロボット制御
物体把持
視覚入力と言語指令に基づき把持動作シーケンスを生成
Google Robotタスクで良好な性能
空間ナビゲーション
空間関係を理解しナビゲーションパスを生成
WidowX Robotタスクで良好な効果を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase