Ppo Huggy
これはUnity ML-AgentsライブラリでトレーニングされたPPOエージェントモデルで、Huggyゲームをプレイするために特別に設計されています。
ダウンロード数 28
リリース時間 : 4/20/2022
モデル概要
このモデルはPPO(近接方策最適化)アルゴリズムに基づいてトレーニングされており、Huggyゲーム環境で強化学習を行い、ゲームの目標を達成することができます。
モデル特徴
PPOアルゴリズムベース
近接方策最適化アルゴリズムを使用してトレーニングされており、安定した学習性能を持っています
Unity環境統合
Unityゲーム環境専用に設計されており、Unityエディタで直接展開できます
継続学習能力
mlagents-learnコマンドを通じてモデルのトレーニングを継続できます
モデル能力
ゲーム制御
強化学習
環境インタラクション
使用事例
ゲームAI
Huggyゲームエージェント
HuggyゲームでAIプレイヤーとしてキャラクターを制御します
ゲームで設定された目標を達成できます
強化学習研究
PPOアルゴリズム検証
ゲーム環境におけるPPOアルゴリズムの実装ケースとして
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98