過去9回でパソコンを自作した後に、Ubuntu14.04、CUDA、cuDNN、chainer、dqn、LIS、Tensorflow、OpenAIGymを順次インストールし、いくつかモデルを走らせた。特に前回はDeep PredNetの学習済みモデルを使って未来を予測してみた。
http://qiita.com/masataka46/items/4de1a294323ed7b3100c
W.Lotter氏らのPredNet論文はこちら。
https://arxiv.org/abs/1605.08104
HPはこちら
https://coxlab.github.io/prednet/
日本語の解説としてはochiai氏がまとめてくれている。
http://karasunoblog.blog20.fc2.com/blog-entry-46.html
GitHub上のコードはこちら。
https://github.com/coxlab/prednet
全能アーキテクチャによるPredNet実装のハッカソン記事はこちら。私も出てます。
http://wba-initiative.org/1472/
せっかく160GBのデータをダウンロードしたので、今回は1,2回でもいいから学習させてみる。
##Deep PredNetを学習させる
まずはパラメータ等の調整をせずに「えいや!」で学習を試みる。
THEANO_FLAGS=mode=FAST_RUN,device=gpu,floatX=float32 python kitti_train.py
すると
device=gpu,floatX=float32 python kitti_train.py
Using Theano backend.
Using gpu device 0: GeForce GTX 1070 (CNMeM is disabled, cuDNN 5005)
Epoch 1/150
500/500 [==============================] - 172s - loss: 0.0625 - val_loss: 0.0476
などと表示され、学習が始まった。1回の学習におよそ3分で150回学習するので、トータル7〜8時間かかりそう。
いったん止めて、学習回数を減らす。kitti_train.py内34行を以下に修正する。
nb_epoch = 30
1時間半ほどで学習が終了した。30回の学習でlossが0.0243、val_lossが0.0317。