O

Openvla 7b

由openvla開發
OpenVLA 7B是一個基於Open X-Embodiment數據集訓練的開源視覺-語言-動作模型,能夠根據語言指令和攝像頭圖像生成機器人動作。
下載量 1.7M
發布時間 : 6/10/2024

模型概述

OpenVLA 7B是一個多模態模型,接收語言指令和機器人工作空間的攝像頭圖像作為輸入,預測7自由度末端執行器位移量。支持多種機器人控制,並能通過微調快速適配新機器人領域。

模型特點

多機器人支持
開箱即用地控制預訓練混合數據中包含的多種機器人
參數高效微調
可通過少量演示數據高效微調適配新任務和機器人配置
開源訓練代碼
完整的訓練代碼庫以MIT許可證發佈,支持自定義訓練
多模態輸入
同時處理語言指令和視覺輸入,生成精確的機器人動作

模型能力

機器人動作預測
視覺語言理解
多模態任務處理
機器人控制

使用案例

機器人控制
Widow-X機器人控制
在BridgeV2環境中控制Widow-X機器人執行指令
零樣本執行預訓練混合數據中包含的任務
新機器人適配
通過少量演示數據微調適配新機器人配置
快速適應新任務和機器人環境
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase