S

Sac Hopper V3

sb3によって開発
これはSACアルゴリズムに基づく強化学習モデルで、Hopper-v3環境でロボットのジャンプ動作を制御するために使用されます。
ダウンロード数 44
リリース時間 : 6/2/2022

モデル概要

このモデルはSoft Actor-Critic (SAC)アルゴリズムを使用して訓練され、Hopper-v3環境における連続制御タスクの解決に特化しています。

モデル特徴

SACアルゴリズムベース
Soft Actor-Criticアルゴリズムを使用し、連続動作空間の強化学習問題に適しています
安定した訓練
stable-baselines3を通じて実装され、信頼性の高い訓練プロセスを提供します
高性能
Hopper-v3環境で2266.78の平均報酬を達成

モデル能力

連続動作制御
ロボット運動制御
強化学習タスク解決

使用事例

ロボット制御
Hopperロボットのジャンプ制御
シミュレーションHopperロボットのジャンプ動作を制御
平均報酬2266.78 +/- 1121.81
強化学習研究
連続制御ベンチマーク
連続制御タスクのベンチマークモデルとして使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase