113
107

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

ChainerでやってみるDeep Q Learning - 立ち上げ編

Last updated at Posted at 2016-04-19

こんにちは 本業はプログラマじゃない人です。

テレビで「ディープラーニング」というキーワードがバズっているときに、
分散深層強化学習でロボット制御 | Preferred Researchを見て、
試してみたいことが出てきたので、いきなりクローンとは言わず、まず簡単なものから作った。
⇒ 置き場:DeepQNetworkTest

狙い

Pythonも初めて!Chainerも初めて!
プログラミングの作法すら分からないのに周囲にソフト屋さんがいない!
でも、自走機械に強化学習というのをやらせてみたい!
⇒ とりあえず公開すれば教えてくれる人が出てくるかもしれない

慣性とか持っている機械を動かして見せてる事例が本当に少ない(気がする)
⇒ 次のステップで入れてみよう

やったこと

プログラムの概要

環境

外枠と内枠で囲まれた箱庭に赤リンゴと毒リングが並んでいます。
人工知能くんは赤リンゴをたくさん食べたい、毒リンゴは食べたくない、という設定。

※ 割とオリジナルの設定のまま。
  移動体の制御という観点で解釈しなおすと
   赤リンゴは誘導したい行先
   毒リンゴは避けてほしい道

外枠と内壁

人工知能くんの動きと視野をさえぎる障害物。人工知能くんは視界が開けているのが好き。
001.png

赤リンゴ・毒リンゴ

赤リンゴにぶつかると、ご褒美。毒リンゴだと、罰。
aka.pngdoku.png

人工知能くん

前方120°に300pxの視野を持つ青い点。

  • 視野は9つの目で構成されていて、リンゴや壁でさえぎられる(一番近いものだけしか見えない)
  • 等速で動き続ける
  • できる動作は、右に曲がる、右にちょっと曲がる、直進する、左にちょっと曲がる、左に曲がる
  • 視界が広いときは直進したい
    agent.png

強化学習とか

ニューラルネット

入力 59個、隠れ層 50個 x 2枚、出力 5個でRelu使ってます(オリジナル通り)
network.png

学習

30,000個経験をストックしてミニバッチ学習。学習の仕方はよく見かけるやつ。
Double DQNとかLSTM使うなどおしゃれなことはしていない。

できたこと・変なところ 2016-04-20時点

  • 人工知能くんがちょっとずつ学習して赤リンゴを食べるようになっていく
  • なんか妙に壁にこびり付くのが好き
  • 毒リンゴも積極的に食べに行っているようにもみえるけどε-greedyのεが出てしまっているのだろうか

ご褒美のあげかた、actionを調整する必要があるかも。
いかんせん学習の経過が図示できていないのがいけませんね。

教えてほしい・助けてほしい! 2016/04/22

Numpyの使い方

Chainerメモ11 GPUで速度が出ない時 - studylog/北の雲を拝見するなどすると

普段からnumpyをバリバリに使っている人からすればお茶を吹くレベルのありえないコードでしょうがちょっと前までの自分はこんなコードがよく紛れ込んでました。

ということがあるのですが、こちらの記事自体はcupyのことなのですが、
numpyだけに限定しても、私も作法をよく知らないので、
こうしたら速くなるよという書き方、ここは変なんじゃない?があったら教えていただきたいです。

DQN001.py
        memsize     = self.eMem.shape[0]
        batch_index = np.random.permutation(memsize)[:self.batch_num]
        batch       = np.array(self.eMem[batch_index], dtype=np.float32).reshape(self.batch_num, -1)

        x = Variable(batch[:,0:STATE_DIM])
        targets = self.model.predict(x).data.copy()

        for i in range(self.batch_num):
            #[ state..., action, reward, seq_new]
            a = int(batch[i,STATE_DIM])
            r = batch[i, STATE_DIM+1]

            new_seq= batch[i,(STATE_DIM+2):(STATE_DIM*2+2)]

            targets[i,a]=( r + self.gamma * np.max(self.get_action_value(new_seq)))

        t = Variable(np.array(targets, dtype=np.float32).reshape((self.batch_num,-1))) 

forループ内をベクトル演算化できるような実装を考えればよいのだろうか…

wxPythonの使い方

FrameとPanelの親子関係やデバイスコンテキスト(dc)の扱いがよくわかっていないのですが、
画面の下方にグラフを追加したい(工事待ち)
wxPython:アニメーションとグラフ描画を同時描画する - Qiita

voglio001.png

その後:分散学習とグラフはつけた

蛍が飛んでるように見えますね。
003.gif

参考

注意

この記事は、ちょこっとずつ書き足したり書き直したりする予定

113
107
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
113
107

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?