# ロボット操作制御

Flower Libero 10
MIT
FlowerVLAはロボット操作タスク向けに事前学習された視覚-言語-動作フロー戦略モデルで、LIBERO 10データセットから訓練され、わずか10億パラメータを含みます。
マルチモーダル融合 英語
F
mbreuss
14
2
Flower Calvin D
MIT
FlowerVLAはCALVIN Dデータセット向けに事前学習された視覚-言語-動作フローモデルで、効率的なフローマッチングアーキテクチャを採用し、約10億パラメータで汎用ロボット操作戦略を実現します。
マルチモーダル融合 英語
F
mbreuss
16
3
Flower Calvin Abc
MIT
FlowerVLAはロボット操作タスク向けに事前学習された視覚-言語-動作モデルで、CALVIN ABCデータセットで訓練され、効率的なフローマッチングアーキテクチャを採用し、約10億パラメータのみです。
マルチモーダル融合 英語
F
mbreuss
20
3
Flower Calvin Abcd
MIT
FlowerVLAはCALVIN ABCDデータセット向けに事前学習されたロボット操作モデルで、革新的な視覚-言語-動作フロー戦略を採用し、わずか10億パラメータでロボット学習に特化しています。
マルチモーダル融合 英語
F
mbreuss
24
3
Cogact Small
MIT
CogACTは、視覚言語モデル(VLM)に基づいて派生した新しい高度な視覚言語動作(VLA)アーキテクチャで、ロボット操作向けに設計されています。
マルチモーダル融合 Transformers 英語
C
CogACT
405
4
Cogact Large
MIT
CogACTは視覚言語モデル(VLM)に基づく新しい高度な視覚言語動作(VLA)アーキテクチャで、ロボット操作のために設計されています。
マルチモーダル融合 Transformers 英語
C
CogACT
122
3
Cogact Base
MIT
CogACTは、ロボット操作タスクのための視覚言語モデルと専用動作モジュールを組み合わせた新しい視覚言語動作(VLA)アーキテクチャです。
マルチモーダル融合 Transformers 英語
C
CogACT
6,589
12
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase