N

Nora

由 declare-lab 开发
Nora是一个开源的视觉-语言-动作模型,基于Qwen 2.5 VL - 3B训练,能够根据语言指令和相机图像生成机器人动作。
下载量 7,063
发布时间 : 4/28/2025

模型简介

Nora是一个视觉-语言-动作模型,以语言指令和相机图像作为输入,预测7自由度末端执行器增量组成的机器人动作。

模型特点

视觉-语言-动作集成
能够同时处理视觉输入(相机图像)和语言指令,输出机器人动作
开源可用
所有检查点和训练代码库均在MIT许可下公开
基于大规模数据训练
使用Open X-Embodiment数据集的机器人操作片段进行训练
7自由度动作预测
能够预测包含位置和姿态的7自由度机器人动作

模型能力

视觉-语言理解
机器人动作预测
指令跟随
零样本学习

使用案例

机器人控制
基于指令的机器人操作
根据自然语言指令控制机器人执行特定任务
能够生成适合机器人执行的7自由度动作
零样本指令跟踪
在未见过的指令和场景下执行任务
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase