N

Nora

由declare-lab開發
Nora是一個開源的視覺-語言-動作模型,基於Qwen 2.5 VL - 3B訓練,能夠根據語言指令和相機圖像生成機器人動作。
下載量 7,063
發布時間 : 4/28/2025

模型概述

Nora是一個視覺-語言-動作模型,以語言指令和相機圖像作為輸入,預測7自由度末端執行器增量組成的機器人動作。

模型特點

視覺-語言-動作集成
能夠同時處理視覺輸入(相機圖像)和語言指令,輸出機器人動作
開源可用
所有檢查點和訓練代碼庫均在MIT許可下公開
基於大規模數據訓練
使用Open X-Embodiment數據集的機器人操作片段進行訓練
7自由度動作預測
能夠預測包含位置和姿態的7自由度機器人動作

模型能力

視覺-語言理解
機器人動作預測
指令跟隨
零樣本學習

使用案例

機器人控制
基於指令的機器人操作
根據自然語言指令控制機器人執行特定任務
能夠生成適合機器人執行的7自由度動作
零樣本指令跟蹤
在未見過的指令和場景下執行任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase