# 深層強化学習

Ppo CartPole V1
これはstable-baselines3ライブラリで訓練されたPPOエージェントモデルで、CartPole-v1強化学習タスクを解決するために特別に設計されています。
物理学モデル
P
somya17ban
14
1
Poca SoccerTwos
Unity ML-Agentsでトレーニングされた深層強化学習エージェントで、2人サッカーゲームシナリオ専用です。
物体検出
P
honestlyanubhav
118
1
Ppo LunarLander V2
これはPPOアルゴリズムに基づく強化学習モデルで、LunarLander-v2環境向けに特別に訓練され、月着陸船を安全に着陸させることができます。
物理学モデル
P
sofiascat
14
1
Ppo Huggy
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、ハギーゲーム専用に設計されています。
マルチモーダル融合 TensorBoard
P
alex17127
75
1
Ppo Huggy
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、ハギーゲームを実行するために特別に設計されています。
マルチモーダル融合 TensorBoard
P
ErenDoymus
30
1
Ppo Huggy
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、バーチャル犬ハギーの行動制御に特化しています。
物体検出 TensorBoard
P
hellonihao
52
1
Ppo LunarLander V2
これはPPOアルゴリズムに基づく強化学習モデルで、LunarLander-v2環境における着陸タスクを解決するために特別に設計されています。
物理学モデル
P
tooalvin
13
1
Ppo Huggy
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、ハッジゲームの強化学習タスク専用です。
マルチモーダル融合 TensorBoard
P
PampX
16
2
Poca SoccerTwos
Unity ML-Agentsでトレーニングされた深層強化学習モデルで、2人サッカーゲームシナリオ専用
分子モデル TensorBoard
P
hishamcse
20
1
Mlunitypyramids
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、ピラミッド環境でのゲーム専用に設計されています。
マルチモーダル融合 TensorBoard
M
motmono
21
0
Test Worm
これはPPOアルゴリズムに基づく強化学習エージェントで、Unityのワームゲーム向けに特別にトレーニングされました。
画像生成 TensorBoard
T
damilare-akin
15
0
Testworm
PPOアルゴリズムに基づく強化学習エージェントで、スネークゲームをプレイするために特別にトレーニングされています
画像生成 TensorBoard
T
curt-tigges
85
0
Mlagents Worm
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、Wormゲーム専用に設計されています。
マルチモーダル融合 TensorBoard
M
danieladejumo
17
0
Testpushblock
PPOアルゴリズムに基づいてトレーニングされた深層強化学習エージェントで、UnityのPushBlockゲーム環境用
分子モデル TensorBoard
T
rebolforces
30
0
Pushblock
これはPPOアルゴリズムに基づく強化学習エージェントで、UnityのPushBlock環境でタスクを完了するために特別にトレーニングされています。
マルチモーダル融合 TensorBoard
P
mrm8488
35
0
Worm Unity ML
これはUnity ML-Agentsライブラリでトレーニングされたppoエージェントモデルで、Wormゲーム環境専用です。
分子モデル TensorBoard
W
comodoro
14
0
Pyramidsrnd
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、ピラミッド環境でのゲームと意思決定に特化しています。
物体検出 TensorBoard
P
mrm8488
25
1
Unitypyramidsrnd
これはPPOアルゴリズムに基づく強化学習エージェントで、UnityのML-Agentsピラミッド環境向けにトレーニングされています。
物体検出 TensorBoard
U
jakka
15
0
Testpyramidsrnd2
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、ピラミッドゲームを実行するために特別に設計されています。
物体検出 TensorBoard
T
micheljperez
16
0
Mlagents Worm
これはUnity ML-Agentsを基に訓練されたPPOエージェントモデルで、Wormゲーム環境に特化しています。
物体検出 TensorBoard
M
infinitejoy
19
0
Ppo LunarLander V2
これはPPOアルゴリズムに基づく強化学習モデルで、月面着陸機-v2環境における制御タスクを解決するためのものです。
物理学モデル
P
sigalaz
20
0
Unity Pyramids
これはUnity ML-Agentsで訓練されたPPOエージェントモデルで、ピラミッドゲーム環境を実行するために特別に設計されています
物体検出 TensorBoard
U
ra-XOr
23
1
Ppo LunarLander V2
これはPPOアルゴリズムに基づく強化学習モデルで、LunarLander-v2環境向けに訓練され、月面着陸船の安全な着陸を制御するために使用されます。
物理学モデル
P
andri
16
0
Sac Hopper V3
これはSACアルゴリズムに基づく強化学習モデルで、Hopper-v3環境でロボットのジャンプ動作を制御するために使用されます。
物理学モデル
S
sb3
44
0
Sac Walker2d V3
これはSACアルゴリズムに基づく強化学習モデルで、Walker2d-v3環境向けに設計されており、二足ロボットの歩行を制御できます。
物理学モデル
S
sb3
43
0
Assignment2 Omar
これはPPOアルゴリズムに基づく強化学習モデルで、LunarLander-v2環境における着陸タスクを解決するために特別に設計されています。
物理学モデル
A
Classroom-workshop
135
3
Td3 MountainCarContinuous V0
stable-baselines3ライブラリで訓練されたTD3強化学習エージェントで、MountainCarContinuous-v0環境専用に設計されています。
物理学モデル
T
sb3
203
0
Td3 HalfCheetah V3
これはstable-baselines3ライブラリで訓練されたTD3強化学習エージェントで、HalfCheetah-v3環境向けに設計されており、平均報酬は9709.01を達成しています。
物理学モデル
T
sb3
23
0
Sealswalker2d V0
これはPPOアルゴリズムに基づく強化学習エージェントで、seals/Walker2d-v0環境向けに訓練され、Walker2dロボットの歩行制御タスクに使用されます。
物理学モデル
S
ernestumorga
0
0
Sac Pendulum V1
これはSACアルゴリズムに基づく強化学習モデルで、Pendulum-v1環境における制御問題を解決するためのものです。
物理学モデル
S
sb3
39
0
Ppo Huggy
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、Huggyゲームをプレイするために特別に設計されています。
画像生成 TensorBoard
P
ThomasSimonini
28
2
Ball Test
PPOアルゴリズムに基づく強化学習エージェントで、Unity 3DBall環境におけるバランスボール制御タスク用
3Dビジョン TensorBoard
B
osanseviero
29
0
Ball
これはPPOアルゴリズムで訓練された強化学習エージェントで、Unity 3DBallゲームにおけるバランスボールタスクを制御するために使用されます。
3Dビジョン TensorBoard
B
ThomasSimonini
23
0
Ppo SeaquestNoFrameskip V4
これはstable-baselines3ライブラリを使用して訓練されたPPOエージェントモデルで、アタリゲームのSeaquestNoFrameskip-v4をプレイするために特別に開発されています。
動画処理
P
ThomasSimonini
205
0
Ppo BreakoutNoFrameskip V4
PPOアルゴリズムを使用してアタリゲームBreakout環境でトレーニングされた深層強化学習モデル
動画処理
P
ThomasSimonini
459
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase