Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
6
Help us understand the problem. What is going on with this article?
@YAFI

Unity ML Agents のPPOファイルが消えていたのでlearn.pyの使い方を調べたメモ

More than 3 years have passed since last update.

はじめに

Unityを用いて機械学習(ML)で遊びたいと思い以下のページ
Unityの公式サンプルml-agentsでAIを試す
を参考にUnityでMLを行うための環境を整えていました。
しかし、いざ学習実行の段になったところでPPO.ipynbがどこにもなかったので調べてみました。
以下では、上記のページを参考に、学習の実行直前の段階まで環境を整え終わったと仮定しています。

・動作環境
Win 10
Python 3.6.4
Unity 2017.3.1f1

PPO.ipynb が learn.pyに変わった

Unityの公式GitHub
Unity-Technologies/ml-agents
で述べられていることを要約すると、

PPOを用いた強化学習をするには, learn.pyを実行する

とのことでした。

これによると、学習を実行するには、シェルスクリプトでexeファイルが保存されているフォルダへ移動し、
python learn.py <env_file_path> --run-id=<run-identifier> --train

を実行すると良いようです。ここで、env_file_pathはUnityのexeファイルのアドレス、そしてrun-identifierは学習毎に学習データを分けるためのフォルダです。
なので私の場合、
python learn.py C:\Users\Downloads\Unity\ml-agents-master\python\3DBall.exe --run-id=C:\Users\Downloads\Unity\ml-agents-master\python\3DBallData1 --train

とすることで、学習が実行され、学習データも新しく作成したC:\Users\Downloads\Unity\ml-agents-master\python\3DBallData1
に保存されました。

実行毎に学習データを分けず、上書きしたい場合はデータ保存フォルダの指定を消して、
python learn.py C:\Users\Downloads\Unity\ml-agents-master\python\3DBall.exe --train
とすると良いようです。

6
Help us understand the problem. What is going on with this article?
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
YAFI

Comments

No comments
Sign up for free and join this conversation.
Sign Up
If you already have a Qiita account Login
6
Help us understand the problem. What is going on with this article?