1
7

More than 3 years have passed since last update.

Aidemy 2020/10/2

はじめに

 こんにちは、んがょぺです!バリバリの文系ですが、AIの可能性に興味を持ったのがきっかけで、AI特化型スクール「Aidemy」に通い、勉強しています。ここで得られた知識を皆さんと共有したいと思い、Qiitaでまとめています。以前のまとめ記事も多くの方に読んでいただけてとても嬉しいです。ありがとうございます!
 今回は、CNNの1つめの投稿になります。どうぞよろしくお願いします。

*本記事は「Aidemy」での学習内容を「自分の言葉で」まとめたものになります。表現の間違いや勘違いを含む可能性があります。ご了承ください。

今回学ぶこと
・画像認識について
・CNNの実装
・CNNにおけるハイパーパラメータ

画像認識について

画像認識とは

・画像認識とは、画像や映像に映る文字や顔などといった「モノ」や「特徴」を検出する技術のことである。
・今回は、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)という、画像認識で広く使われている深層学習方法を学ぶ。

CNNについて

・CNNは、人間の脳の視覚野と似た構造を持つ「畳み込み層」という層を使って特徴抽出を行うニューラルネットワークである。画像認識の分野で特に高い性能を持つ。
・CNNの畳み込み層は、2次元のままの画像データを処理できる。すなわち、線や角といった2次元的な特徴を抽出するのに優れている
・また、畳み込み層の他に、「プーリング層」というものもある。プーリング層は、畳み込み層から得た情報を縮約し、最終的に画像の分類などを行う

畳み込み層について

・畳み込み層は、入力データの一部分に注目しその部分の画像の特徴を調べる(=畳みこむ)層である
・抽出する特徴については、学習データや損失関数の値によって自動で学習される!
・各特徴(人の顔なら鼻や口など)はプログラム内部ではフィルター(カーネル)と呼ばれる重み行列として扱われ、各特徴につき一つのフィルターを用いる。

プーリング層について

・プーリング層は、畳み込み層からの出力データを縮約(圧縮)し、データ量を削減する層である。なぜ縮約するのかというと、画像データの特徴のうち、同じ特徴は同じ場所に固まっていることが多く、一方で特徴のない場所も広く分布していることも多いので、このまま畳み込むと出力に無駄が大きくなるためである
・縮約(圧縮)の方法としては、各特徴の最大値をとったり(Maxプーリング)、平均をとったり(Avarageプーリング)して行う。

CNNの実装

・Keras+TensorFlowを使ってCNNを実装する。実務上もこれらを使うことがほとんど。
・作成方法は以前やった「教師あり学習」と同じで、まずSequentialインスタンスを作り、次にaddメソッドで層を一層ずつ追加し、最後にcompileメソッドでコンパイルを行えば良い

#インスタンスの作成
model=Sequential()
#層の追加(パラメータは後述)
model.add(Dense(128))
#畳み込み層の追加
model.add(Conv2D(filters=64, kernel_size=(3, 3)))
#プーリング層の追加
model.add(MaxPooling2D(pool_size=(2,2)))
#コンパイル
model.compile(optimizer=sgd,loss="categorical_crossentropy",metrics=["accuracy"])

手書き文字の分類

・CNNを使って手書き文字のデータセットMNISTを分類する。詳しくは省略するが、前項のような流れで行うことができる。
・手書き文字の他に、乗り物や動物の画像のデータセットである「CIFER-10」の分類も行った。

ハイパーパラメータ

CNNのハイパーパラメータの概要

・畳み込み層(Conv)のハイパーパラメータ
 ・filters:抽出する特徴の数
 ・kernel_size:カーネルの大きさ
 ・strides:カーネルを動かす距離
 ・padding:画像の外側に作る余白の大きさ
・プーリング層(Pool)のハイパーパラメータ
 ・pool size:一度にプーリングする範囲の指定
 ・strides:プーリング範囲を動かす距離(プーリングの間隔)
 ・padding:画像の外側に作る余白の大きさ

畳み込み層(Conv)のハイパーパラメータ

filters

・filtersは、生成する特徴マップの数、すなわち抽出する特徴の種類を指定する。
・filtersは小さすぎると十分に特徴を抽出できず、大きすぎると過学習を引き起こしてしまう。

kernel_size

・kernel_sizeは、カーネルの大きさを示す。
・カーネルとは、畳み込みに使用する重み行列のことであり、すなわち特徴を検出するレンズのようなものである。
・kernel_sizeが小さすぎると小さな特徴でもレンズに収まりきらずうまく検出できない。逆に大きすぎると本来小さな特徴として検出されるべき特徴も一つの大きな特徴として抽出されてしまう。

strides

・stridesは、特徴を抽出する間隔、すなわちカーネルを動かす距離を指定する。
・stridesの値が小さいほど、特徴を抽出する間隔は短くなるので、細かく特徴量を抽出できる。ただし、重複する部分が多くなるので、同じ箇所の検出が増える。
・しかし、一般にstridesは小さい方がいいとされる。デフォルトは最低の(1,1)になっている。

padding

・paddingとは、画像の外側に作る余白の大きさを示す。余白を作るのは、畳み込み時の意図しない画像の縮小を抑えるためである。また、端のデータの特徴がよく考慮されるようになる、データ更新の頻度が上がる、各層の入出力ユニット数を調整できるなど、様々なメリットがある。
・一般的には追加するピクセルを0にする。これを「ゼロパディング」という。
padding=(1,1)などのように余白の幅を表せる他、Conv2D層では、padding=valid,padding=sameのようにも表せる.前者はパディングを行わず、後者は出力の大きさが入力の大きさと一致するように余白を作る。

プーリング層(Pool)のハイパーパラメータ

pool_size

・pool_sizeとは、一度にプーリングする範囲のことである。扱いはカーネルと同じで、レンズのようなものである
・pool_sizeが大きければ、特徴の位置が多少変化しても出力が変わらないので、好ましいと言える。一般的には、(2×2)にする

strides

・stridesは、プーリング範囲を動かす距離のことである。畳み込み層のカーネルのときと同じ挙動である。

padding

・paddingは、畳み込み層のものと同一の働きをする。設定の仕方も同一なので、そちらを参照のこと。

まとめ

・画像認識の分野では、CNN(畳み込みニューラルネットワーク)を使って深層学習する。
・CNNには、画像の一部分を抽出し、特徴を見つける「畳み込み層(Conv)」と、データの無駄を減らし精度を上げるために抽出された情報を縮約して分類する「プーリング層(Pool)」がある。その他、「教師あり学習」で学んだ「全結合層(Dense)」もある。
・また、ハイパーパラメータも存在する。畳み込み層のハイパーパラメータとしては、抽出する特徴の数を示すfilters、カーネル(特徴を抽出するレンズ)の大きさを示すkernel_size、カーネルを動かす距離を示すstrides、画像の外側に作る余白の大きさを示すpaddingがある。
・プーリング層(Pool)のハイパーパラメータとしては、一度にプーリングする範囲を示すpool size、プーリング範囲を動かす距離を示すstrides、画像の外側に作る余白の大きさを示すpaddingがある。

今回は以上です。最後まで読んでいただき、ありがとうございました。

1
7
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
7