N

Nora Long

declare-labによって開発
オープンXエンボディデータセットでトレーニングされた視覚-言語-動作モデルで、言語命令とカメラ画像を入力としてロボット動作を生成
ダウンロード数 673
リリース時間 : 4/29/2025

モデル概要

ノラ長距離版は通義千問2.5 VL-3Bモデルをファインチューニングしたオープンソースの視覚-言語-動作モデルで、ロボット操作タスク向けに設計されており、5ステップ動作スパンで事前トレーニングされ、LIBEROシミュレーション環境で優れた性能を発揮

モデル特徴

長距離動作予測
5ステップ動作スパンで事前トレーニングされており、長距離計画が必要なタスクシナリオに適している
マルチモーダル入力
言語命令と視覚入力を同時に処理し、より正確な動作制御を実現
オープンソースでファインチューニング可能
完全なトレーニングコードとモデルチェックポイントを提供し、ユーザーカスタマイズのファインチューニングをサポート

モデル能力

視覚-言語理解
ロボット動作予測
マルチモーダルタスク実行
長距離動作計画

使用事例

ロボット制御
ロボットアーム操作
自然言語命令と視覚入力に基づいてロボットアームの把持、配置などの操作を制御
WidowXロボットタスクとLIBEROシミュレーション環境で有効性を確認
自動化組立
視覚と言語ガイダンスを通じて複雑な組立タスクを完了
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase