0.はじめに
大学でデータサイエンスの講義を受講している者です。
あまりにも広範囲な分野であるため"広く浅く"情報整理したいため投稿。
内容のレベルは超入門編、個人的な感情も少し入り混じった備忘録。
(齟齬がある場合はご指摘いただけると助かります。)
データサイエンス学習全体像
【データサイエンス】概要
【データサイエンス】人工知能
【データサイエンス】機械学習
【データサイエンス】ディープラーニング
【データサイエンス】分析の分類・確率分布
【データサイエンス】探索的データ分析
【データサイエンス】統計的検定
【データサイエンス】予測モデリング
【データサイエンス】自然言語処理
【アルゴリズム】パーセプトロン
【データサイエンス】機械学習における関数
【データサイエンス】確率
1.ディープラーニング歴史
1950年代ローゼンブラッドによる神経回路網モデルを提唱
1980年代入力層と出力層の間の隠れ層を作ったことにより学習能力が向上し再び脚光を浴びる
2012年HintonらのチームによるImageNet
競技課題でトップを取った
2.ディープラーニングの概要
深層学習のこと
ニューラルネットワークを用いた学習手法であり、階層を深めたアルゴリズムのこと
人間を上回る精度を達成し凌駕するところまで発展している
非常に優れた性能を持ち様々なタスクで発揮する
入力層と出力層の間に多くの中間層が存在
2-1.中間層とは
中間層は畳み込み層でありCNN
と呼ばれる
主に画像の処理が行われる
2-2.単一パーセプトロンについて
アルゴリズムのパーセプトロンについては別記事に記載
3.メリット・デメリット
機械学習は準備が必要だがディープラーニングは
必要な情報(特徴量)を自らデータから抽出することが可能
人手を使い特徴を設計する必要が無い
例:画像のカテゴリーを判断する場合ラベル付けを行った画像を用意し
モデルに挿入するだけで判断が可能
その分データを用意するのが大変
大規模のデータ・クラスターを扱うためコスト面に負担がかかる
4.関連知識
4-1.ニューラルネットワークとは
神経回路網モデルを数学を用いて表現したもの
教師あり学習のアルゴリズムのひとつ
入力層、中間層、出力層から構成されている
名称 | 用途 |
---|---|
入力層 | 外部から外部から入力されるデータを受け取る場所 |
中間層 | 情報伝達の処理を行う ディープラーニングにでは畳み込みや次元圧縮など様々な用途を重ねる層 |
出力層 | ニューラルネットワークが予測または分類するタスクの結果 |
非線形関数を用いるのが基本
線形関数を用いた場合の特徴をここで挙げると
関数を掛け合わせた場合、線形状に結局戻ってしまう
また線形関数だと多層にした意味がなくなってしまう
-
隠れ層のないネットワークとなってしまう
よって多様な表現は非線形関数でなければならない
4-2.神経回路網モデルとは
脳の神経回路をモデルとしている
ニューロン特有の連結強化の特性を利用している
(単一/多層)パーセプトロンというモデルがある
4-3.神経細胞とは
ニューロンとも呼ばれる
「ニューロン同士が同時に発火するとその間の連結は強化される」byヘッブ学習規則
神経細胞の構造は「細胞体」「樹状突起」「軸索」からできている
軸索の先端と神経細胞の接続部分の名称
細胞膜の内外は膜電位という電位差(電圧)があり通常一定に保たれている
外部がらの刺激により膜電位が上昇し正常値に戻る
この現象の事、興奮とも呼ばれる
発火する臨界(物体が変化し異なる状態になる境界)の電位の値
4-4.単一パーセプトロンとは
ヘッブの学習規則の考え方を取り入れた学習モデル
人工的神経回路網モデルと呼ばれる
入力~出力が同時に発火した場合その間の重みを上げる
(これは「入力~出力が予期したものであったならば・・」と捉えてばよいと思う..)
「予期したものであれば別の学習方法を試す」るようなイメージ
全て入力層×重みを加算し結果を出す
最終的な結果は定義による
別記事「単一パーセプトロン」においては0か1を出力としている
利用することで発火した有無を判断する
学習の材料となる、有のケースが多い場合は精度が高くなる
学習した知識は重みの中に蓄えられる
重み単体を見ても簡単に理解することはできない
4-5.多層パーセプトロンとは
単一パーセプトロンにさらに複数の階層を加えたもの
複数層を組み合わせることにより多くのパターンを実現をすることが可能
バックプロパケーションを用いる場合がある
4-6.畳み込みとは
一次元の配列2つを用いてそれぞれ重なった配列同士の計算をし一本化すること
イメージとしては一次元の配列は固定、もう一方は1マスずつズラしながら重ねていき計算をしていく
処理イメージ
Fを固定しGをひっくり返し左側からスライドをし計算をする、その計算結果をCとする
スキャンのような処理が可能
二次元の配列に置き換えて畳み込みを行う
スキャンをするような処理が可能、エッジの取り出しともいう
イメージとしては3×3=9マスあるうちの1マスを使用し畳み込みを行う
そうすることでエッジに相当する部分の情報を取り出すことができる
畳み込みニューラルネットワーク
2次元のまま入力することができるニューラルネットワーク
画像の認識は縦横の2次元と色彩情報を入れると3次元となる
通常のニューラルネットワークは2次元の情報を1次元に変換する必要がある
2次元のまま入力し出力できないか考えられたのがCNN
4-7.バックプロパケーションとは
入力~出力の直接の関係を求めることはできない
入力~中間層の「重み」をかけたことにより出力が算出される
誤差を足したものが許容範囲かどうか判断する、満足いかない場合は
出力~中間内の重みの調整、中間~入力の重みの調整を行う
このように後方へ伝搬し調節していること
応用例としてRNNがある
4-8.RNNとは
ひとつ前の層に新たにコネクション(図で言う矢印、連結)を作り
時間の流れをシュミレートし時系列のデータを扱うことができる
音声処理やテキスト処理などに用いられる
過去の情報が新しい情報にどれくらいの影響があるのか重みを学習する
4-9オートエンコーダ
ニューラルネットワークの一つ
教師なし学習の手法として広く利用されている
勾配消失を避けることができる
入力データをエンコード(圧縮)してからデコード(再構築)することで、入力データの表現を学習することを目的としている
講義資料内では可視化層に4つデータがあり隠れ層には3つのパラメータがある
この4つを3つに次元圧縮しているのがオートエンコーダ
5.応用例
簡単な例題
性質上天候を予測するのは極めて難しい
そこで4名の体験談をもとに予測をしてみる
予想値 | |
---|---|
A | 個人の感情で予報をする |
B | 論理的な予報をする |
C | ランダム性のある予報をする |
D | 観測理論で予報をする |
ここでのポイントは
「みんなの予測を合わせると良い結果が得られるかもしれない」という点
Cifar-10プロジェクト
Python内のデータセット
10個のカテゴリーごとの画像とそれについての答えがある
訓練用(trany)、テスト用(testy)それぞれ50000枚、10000枚学習させる様子を見ていく
Tensorflow
中間層を含むニューラルネットワークを構築することができる
データ確認
9枚の画像を取り出しtranyの配列から番号を照らし合わせ確認する
モデル設定
中間層で以下の工程を行う
畳み込み
次元圧縮
一次元の配列にする
全結合
学習結果
用途 | 上図(損失の割合) | 下図(精度の割合) | |
---|---|---|---|
青色 | 訓練用データ | 下降している | 上昇している |
黄色 | テストデータ | 上昇している | 0.6まで上昇したが上がらない |
学習評価
上図40付近で過学習が発生する
訓練用(青色)は全て学習してしまいテスト用(黄色)が学習の知識として蓄積されない状態
試験学習の学生が過去問の問題を覚えてしまって既存の問題に慣れてしまっている様子
つまり新しい課題のテストデータの結果・精度が低い状態となっている
改良
conv2d(畳み込み)×2、MaxPooling(次元圧縮)をそれぞれ2セット追加する
精度向上は見られない
訓練データを丸ごと暗記しているような状態の為、量を減らしてあげている
関数dropout()を使用、過学習を減らす目的と考えられる
対策のため間引きをする
間引きとは
解像度を下げる、ここでは打ち止めさせるような意味合い
再評価
精度が向上する
画像を準備して読み込ませて検証させる
検証後
課題として、改良をすることでさらに精度の高いものにすることができる
-
重みを抑制する
大きくなり過ぎないように管理する -
データの補強をする
訓練データをcopyしランダムな修正を加える
例として画像を縦横に10%シフトするといった操作を行う