O

Openvla 7b Finetuned Libero Spatial

openvlaによって開発
LIBERO-SpatialデータセットでLoRAを使用して微調整されたOpenVLA 7B視覚言語動作モデル
ダウンロード数 4,009
リリース時間 : 9/3/2024

モデル概要

これはマルチモーダルな視覚言語動作モデルで、ロボット技術向けに設計されており、画像とテキスト入力を処理し、対応する動作指令を生成できます。

モデル特徴

LIBERO-Spatialデータセット微調整
ロボットの空間タスク向けに最適化されたモデル性能
LoRA効率的な微調整
ランク32のLoRAを使用したパラメータ効率的な微調整で、元のモデル能力を維持しながら新タスクに適応
マルチモーダル処理能力
視覚と言語入力を同時に処理し、動作指令を出力可能

モデル能力

視覚言語理解
ロボット動作生成
マルチモーダル推論
空間タスク処理

使用事例

ロボット制御
空間ナビゲーションタスク
視覚入力とテキスト指令に基づいてロボットのナビゲーション動作を生成
LIBERO-Spatialベンチマークで良好な性能
物体操作タスク
視覚と言語入力を組み合わせて物体の把持と配置タスクを完了
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase