O

Openvla V01 7b

openvlaによって開発
OpenVLA v0.1 7Bはオープンソースの視覚-言語-動作モデルで、Open X-Embodimentデータセットでトレーニングされ、さまざまなロボット制御をサポートします。
ダウンロード数 30
リリース時間 : 6/10/2024

モデル概要

OpenVLA v0.1 7Bは視覚-言語-動作モデルで、言語指示とカメラ画像を入力としてロボット動作を生成します。箱から出してすぐに複数のロボットを制御でき、ファインチューニングによって新しいロボット領域に迅速に適応できます。

モデル特徴

マルチロボットサポート
箱から出してすぐにプレトレーニングデータに含まれる複数のロボットを制御可能
効率的なファインチューニング
少数のデモデータで効率的にファインチューニングし、新しいタスクやロボット設定に適応可能
オープンソース
すべてのチェックポイントとトレーニングコードリポジトリがMITライセンスで公開

モデル能力

ロボット動作予測
視覚言語理解
マルチモーダル入力処理

使用事例

ロボット制御
ゼロショットロボット制御
プレトレーニングデータに含まれるロボット設定で指示をゼロショット実行
Widow-Xロボットなどプレトレーニングデータ内のロボットを制御可能
新領域適応
ファインチューニングで新しいロボット領域に迅速に適応
ターゲット設定上のデモデータセットを収集する必要あり
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase