C

Cogact Base

CogACTによって開発
CogACTは、ロボット操作タスクのための視覚言語モデルと専用動作モジュールを組み合わせた新しい視覚言語動作(VLA)アーキテクチャです。
ダウンロード数 6,589
リリース時間 : 11/29/2024

モデル概要

CogACTは、視覚言語モデル(VLM)に由来する高度な視覚言語動作(VLA)アーキテクチャで、コンポーネント化設計により言語指令と視覚入力をロボット動作へ変換します。

モデル特徴

コンポーネント化アーキテクチャ
単純なVLMの量子化改造ではなく、分離された視覚、言語、動作モジュール設計を採用
マルチモーダル融合
視覚、言語、動作モダリティを統合し、複雑なロボット操作タスクを実現
ゼロショット転移能力
Open-X事前学習混合データセットのロボット構成にゼロショット適用可能
新タスクへの迅速な適応
少数のデモンストレーションサンプルで新タスクやロボット構成に微調整可能

モデル能力

視覚言語理解
ロボット動作予測
マルチモーダル融合
ゼロショット転移学習

使用事例

ロボット操作
物体把持と配置
言語指令と視覚入力に基づき、物体を把持・配置する動作シーケンスを予測
16ステップ7自由度の標準化ロボット動作を生成可能
タスク指向操作
"スポンジをリンゴの近くに移動"などの複雑な指令を実行
条件付き拡散モデルにより正確な動作シーケンスを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase