N

Nora Long

Developed by declare-lab
基於開放X具身數據集訓練的視覺-語言-動作模型,以語言指令和攝像頭圖像為輸入生成機器人動作
Downloads 673
Release Time : 4/29/2025

Model Overview

諾拉長程版是基於通義千問2.5 VL-3B模型微調的開源視覺-語言-動作模型,專為機器人操作任務設計,採用5步動作跨度進行預訓練,在LIBERO仿真環境中表現優異

Model Features

長程動作預測
採用5步動作跨度預訓練,適合需要長程規劃的任務場景
多模態輸入
同時處理語言指令和視覺輸入,實現更精準的動作控制
開源可微調
提供完整訓練代碼和模型檢查點,支持用戶自定義微調

Model Capabilities

視覺-語言理解
機器人動作預測
多模態任務執行
長程動作規劃

Use Cases

機器人控制
機械臂操作
根據自然語言指令和視覺輸入控制機械臂執行抓取、放置等操作
在WidowX機器人任務和LIBERO仿真環境中驗證有效
自動化裝配
通過視覺和語言指導完成複雜裝配任務
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase