O

Openvla V01 7b

由openvla開發
OpenVLA v0.1 7B是一個開源視覺-語言-動作模型,基於Open X-Embodiment數據集訓練,支持多種機器人控制。
下載量 30
發布時間 : 6/10/2024

模型概述

OpenVLA v0.1 7B是一個視覺-語言-動作模型,以語言指令和攝像頭圖像作為輸入,生成機器人動作。它支持開箱即用地控制多種機器人,並可通過微調快速適配新的機器人領域。

模型特點

多機器人支持
開箱即用地控制預訓練數據中已包含的多種機器人
高效微調
可通過少量演示數據高效微調以適應新任務和機器人設置
開源
所有檢查點和訓練代碼庫均以MIT許可證發佈

模型能力

機器人動作預測
視覺語言理解
多模態輸入處理

使用案例

機器人控制
零樣本機器人控制
在預訓練數據包含的機器人設置上零樣本執行指令
可控制如Widow-X機器人等預訓練數據中的機器人
新領域適配
通過微調快速適配新的機器人領域
需要收集目標設置上的演示數據集
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase