N

Nora

declare-labによって開発
Noraはオープンソースの視覚 - 言語 - 動作モデルで、Qwen 2.5 VL - 3Bをベースに訓練され、言語指令とカメラ画像に基づいてロボットの動作を生成できます。
ダウンロード数 7,063
リリース時間 : 4/28/2025

モデル概要

Noraは視覚 - 言語 - 動作モデルで、言語指令とカメラ画像を入力として、7自由度のエンドエフェクタの増分で構成されるロボットの動作を予測します。

モデル特徴

視覚 - 言語 - 動作統合
視覚入力(カメラ画像)と言語指令を同時に処理し、ロボットの動作を出力できます。
オープンソース利用可能
すべてのチェックポイントと訓練コードベースはMITライセンスの下で公開されています。
大規模データに基づく訓練
Open X - Embodimentデータセットのロボット操作フラグメントを使用して訓練されています。
7自由度動作予測
位置と姿勢を含む7自由度のロボット動作を予測できます。

モデル能力

視覚 - 言語理解
ロボット動作予測
指令追従
ゼロサンプル学習

使用事例

ロボット制御
指令に基づくロボット操作
自然言語指令に基づいてロボットに特定のタスクを実行させます。
ロボットが実行するのに適した7自由度の動作を生成できます。
ゼロサンプル指令追跡
見たことのない指令とシーンでタスクを実行します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase