🚀 穩定基線3(Stable-Baselines3)的PPO智能體在月球著陸器環境中的應用
本項目展示了使用 穩定基線3庫 和 強化學習動物園(RL Zoo) 訓練的 近端策略優化(PPO) 智能體在 月球著陸器(LunarLander-v2) 環境中的表現。強化學習動物園是一個針對穩定基線3強化學習智能體的訓練框架,包含超參數優化和預訓練智能體。
🚀 快速開始
模型使用(藉助SB3 RL Zoo)
你可以按照以下步驟使用預訓練模型:
# 下載模型並保存到logs/文件夾中
python -m rl_zoo3.load_from_hub --algo ppo --env LunarLander-v2 -orga sb3 -f logs/
python enjoy.py --algo ppo --env LunarLander-v2 -f logs/
模型訓練(藉助RL Zoo)
若要重新訓練模型,可執行以下命令:
python train.py --algo ppo --env LunarLander-v2 -f logs/
# 上傳模型並生成視頻(如果可能)
python -m rl_zoo3.push_to_hub --algo ppo --env LunarLander-v2 -f logs/ -orga sb3
✨ 主要特性
- 使用近端策略優化(PPO)算法訓練智能體,在月球著陸器(LunarLander-v2)環境中取得了平均獎勵 233.56 +/- 53.89 的成績。
- 藉助穩定基線3庫和強化學習動物園,實現了高效的訓練和超參數優化。
📦 安裝指南
本README未提及具體安裝步驟,你可以參考以下項目鏈接進行安裝:
- RL Zoo: https://github.com/DLR-RM/rl-baselines3-zoo
- SB3: https://github.com/DLR-RM/stable-baselines3
- SB3 Contrib: https://github.com/Stable-Baselines-Team/stable-baselines3-contrib
💻 使用示例
基礎用法
python -m rl_zoo3.load_from_hub --algo ppo --env LunarLander-v2 -orga sb3 -f logs/
python enjoy.py --algo ppo --env LunarLander-v2 -f logs/
高級用法
python train.py --algo ppo --env LunarLander-v2 -f logs/
python -m rl_zoo3.push_to_hub --algo ppo --env LunarLander-v2 -f logs/ -orga sb3
🔧 技術細節
超參數設置
OrderedDict([('batch_size', 64),
('ent_coef', 0.01),
('gae_lambda', 0.98),
('gamma', 0.999),
('n_envs', 16),
('n_epochs', 4),
('n_steps', 1024),
('n_timesteps', 1000000.0),
('policy', 'MlpPolicy'),
('normalize', False)])
📄 模型指標
屬性 |
詳情 |
算法名稱 |
PPO |
環境名稱 |
LunarLander-v2 |
平均獎勵 |
233.56 +/- 53.89 |