このページは、私のDeep Learningの成長記録と備忘録を兼ねて書きます。
目標は、タイトルのとおり衛星画像のSemantic Segmentationです。
メモとして自分の記録用にも考えましたが、Qiitaのサービスを使って公開し共有することで、同じことにトライする方のお役にも立てればと思っています。
Semantic Segmentationについては、Qiita にもいくつか記事があり、参考にしているものもあります。ただ、最新のモデル(アルゴリズム)を使って、自分のしたいものの学習モデルを作る方法まではあまり多くありません。
ということで、自分で試しながら、またできれば間違えいがあった場合ここで指摘してもらいんがら、自分の学習もしていきます。
目標
・衛星画像のSemantic Segmentaion
環境
・ubuntu 16.04LTS
・Cuda 8.0
・GPU GTX1070
・Python 3.5
・Chainer
学習モデル
kaggle DSTL https://www.kaggle.com/c/dstl-satellite-imagery-feature-detection
Inria Satellite image set https://project.inria.fr/aerialimagelabeling/
Semantic Segmentationは多数のモデルがでていますが、その中でも比較的高精度でSegmentationができるpspnetを用います。
ChainerにはPSPNetのモデルがすでに用意されています。
https://github.com/mitmul/chainer-pspnet
手法は、上記のコードを理解し、自分で学習モデルをつくり、それを使って任意の衛星画像より情報を抽出することです。
でも、Chainerについては初心者なため、このコードをみただけでは、どうやって自分のデータから学習モデルを使って実行するのかがわかりません。
そのため、まずはChainerから勉強していきます。
そのため、まずは上記のPSPnetのモデルをセット(公開)された方のQiitaのページを参考に、環境構築と簡単なモデル作成をします。
https://qiita.com/mitmul/items/1e35fba085eb07a92560
次は,2日目 環境構築及びニューラルネットワーク構築 につながります.