O

Openvla V01 7b

Developed by openvla
OpenVLA v0.1 7Bはオープンソースの視覚-言語-動作モデルで、Open X-Embodimentデータセットでトレーニングされ、さまざまなロボット制御をサポートします。
Downloads 30
Release Time : 6/10/2024

Model Overview

OpenVLA v0.1 7Bは視覚-言語-動作モデルで、言語指示とカメラ画像を入力としてロボット動作を生成します。箱から出してすぐに複数のロボットを制御でき、ファインチューニングによって新しいロボット領域に迅速に適応できます。

Model Features

マルチロボットサポート
箱から出してすぐにプレトレーニングデータに含まれる複数のロボットを制御可能
効率的なファインチューニング
少数のデモデータで効率的にファインチューニングし、新しいタスクやロボット設定に適応可能
オープンソース
すべてのチェックポイントとトレーニングコードリポジトリがMITライセンスで公開

Model Capabilities

ロボット動作予測
視覚言語理解
マルチモーダル入力処理

Use Cases

ロボット制御
ゼロショットロボット制御
プレトレーニングデータに含まれるロボット設定で指示をゼロショット実行
Widow-Xロボットなどプレトレーニングデータ内のロボットを制御可能
新領域適応
ファインチューニングで新しいロボット領域に迅速に適応
ターゲット設定上のデモデータセットを収集する必要あり
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase