S

Spatialvla 4b 224 Sft Bridge

IPEC-COMMUNITYによって開発
このモデルは、bridgeデータセットで微調整された視覚-言語-動作モデルで、Simpler-envベンチマークテスト専用に設計されています。
ダウンロード数 1,066
リリース時間 : 3/16/2025

モデル概要

SpatialVLAは、画像とテキスト入力からロボット動作指令を生成できる視覚-言語-動作モデルです。

モデル特徴

視覚-言語-動作統合
視覚と言語入力を同時処理し、ロボット動作指令を出力可能
大規模ロボットデータで訓練
Open X-EmbodimentとRH20Tデータセットを使用した事前訓練
空間理解能力
空間関係の理解と表現に特化して最適化
導入容易
HuggingFace Transformers完全ベースで簡単に導入可能

モデル能力

視覚-言語理解
ロボット動作生成
空間関係推論
マルチモーダルタスク処理

使用事例

ロボット制御
物体把持
視覚入力とテキスト指令から物体把持動作シーケンスを生成
Google Robotタスクで良好な性能を発揮
物体配置
指定物体を目標位置に配置
WidowX Robotタスクで高い成功率を実現
空間理解
空間関係推論
物体間の相対的位置関係を理解
空間理解評価で優れた性能を発揮
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase