LoginSignup
0
0

More than 3 years have passed since last update.

Pythonでの画像認識~2人のキャラ分類にトライ~

Posted at

目次

  • 1.はじめに
    • 自己紹介
    • 今回のテーマ
  • 2.お試し機械学習

    • 先日スクレイピングで画像を取得できるようになった
    • きっかけ
    • 機械学習で2分類問題を考えたい
    • コード作成してみる
    • 結果確認
    • 今後の展望
  • 3.おわりに

実行環境

 - Google Coloboratory

1.はじめに

自己紹介

こんにちは。sgswといいます。

今大学生で、好きな言語はPythonです。
Python
公式サイトはこちら(外部サイトに飛びます)

Pythonにおける、実際の活用例をアウトプットしてゆきたいと思います!

 今回のテーマ

本日は、Pythonの機械学習ライブラリ、kerasを活用した画像認識についての記事を投稿しようと思います。

[↑ 目次へ]

2.お試し機械学習

先日スクレイピングで画像を取得できるように!

先日、webスクレイピングの本をかじり、ちょっとした規模の画像収集ができるようになりました。

でもこれだけでは微妙です。

Pythonで機械学習用の画像を取得する(別のQiita記事に飛びます)

きっかけ

集めた画像を活用してまた何か他のことにつなげられないかと思ったところ、本屋で面白そうな本を見つけました。

PythonとKerasによるディープラーニング (日本語) 単行本(ソフトカバー) – 2018/5/28(外部サイトに飛びます)

画像イメージ

ということで、今回はこちらに書かれていた内容を活用して、画像認識問題を考えてみようと思います。

機械学習で2分類問題を考えたい

上の画像スクレイピングだけでは機械学習をするだけの画像を集めることができません。

かといって、スクレイピングの技術をあげて一度により多くの画像を集めるのは難しそうなので、とりあえず画像の水増しをすることにしました。

色々Qiita記事を眺めていると、水増しに関する素晴らしい記事がたくさんあり、そこに書いてあるコードを少し変えるだけで、おかげで1クラスの画像を2000枚(およそ16倍!)くらいにまで増やすことができました。

こちらの方のGitHubのコードをお借りしました。ありがとうございますm(_ _ )m (外部サイトに飛びます)

学習素材を得ることができたので、いよいよ機械学習ができそうです!

以下ではGoogle Colaboratoryという無料で使えるGPU実行環境を使っています。

学習素材である大量の画像はあらかじめドライブにアップロードしておいて、オンライン環境で実行する際にアクセスできるようにしておきます。

output3.png

このような感じです。

コード作成してみる

必要なライブラリーはあらかじめインストールしておきます。


import numpy as np
from sklearn.model_selection import train_test_split
from keras import models 
from keras import layers 
import numpy as np 
import matplotlib.pyplot as plt 
import os 
import cv2
import glob

とりあえず画像をnumpy配列に収めるための準備をおこなっていきます。


def image_to_tensor(PATH):
    if os.path.exists(PATH) == False:
        print("PATH INVALID")
        return

    img = cv2.imread(PATH)
    img = cv2.resize(img,(100,100))
    img = img/255
    return img


def input_generator(PATH,SIZE = 50):
    """
    PATHフォルダにあるjpg画像を指定枚数 = SIZE集めて(SIZE,100,100,3)の画像データを持つnp.arrayを返します。
    """
    if os.path.exists(PATH) == False:
        print("PATH INVALID")
        return np.array([])
    res = []
    sz = 0
    for img_name in glob.glob(PATH + "/*.jpg"):
        res.append(image_to_tensor(img_name))
        sz += 1
        if sz == SIZE:
            break

    return np.array(res) 

これで、PATHを指定したら、そこから決められた枚数の画像を拾ってきて、np.arrayのデータに収めることができます。

あらかじめドライブに保存したファイルにアクセスして、画像を収集します。

今回は、2値分類の対象として特定の2キャラクター(クラス名はhonoka = 0,kotori = 1とします)を選択し、1クラスのデータ数は1500枚としました。

教師データを4:1の割合で分割して、学習データと検証データに分けます。

#テストデータ、と検証データを分離。比率は4:1
X_train, X_test, y_train, y_test = train_test_split(IN,OUT, test_size=0.2, random_state=100)

2値問題に使えるモデルを制作します。

(このモデルを作成する際、購入した本で得た内容/知識を参考にしています。)


#畳み込みニュートラルネットワーク(CNN)をモデルとして適用。過学習防止にドロップアウト関数を
model = models.Sequential()
model.add(layers.Conv2D(32,(3,3),activation ='relu',input_shape = (100,100,3)))
model.add(layers.Dropout(0.5))
model.add(layers.MaxPool2D((2,2)))
model.add(layers.Conv2D(32, (3,3),activation = "relu"))
model.add(layers.Dropout(0.5))
model.add(layers.MaxPool2D((2,2)))
model.add(layers.Flatten())
model.add(layers.Dense(64,activation="relu"))
model.add(layers.Dense(1,activation="sigmoid"))#2値分類問題には最終活性化関数はシグモイド関数が良い


#モデルのコンパイル
model.compile(
    optimizer = "rmsprop",
    loss = "binary_crossentropy",
    metrics = ["accuracy"]
)


##学習フェーズ
#1エポックあたり大体1.5sくらい
log = model.fit(X_train,
                y_train,
                epochs = 20,
                batch_size = 64,
                validation_data = (X_test,y_test)
                )

"""
RESULT:
    Epoch 1/20
    38/38 [==============================] - 2s 37ms/step - loss: 2.2422 - accuracy: 0.5655 - val_loss: 0.6293 - val_accuracy: 0.8167
    Epoch 2/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.5794 - accuracy: 0.7462 - val_loss: 0.5142 - val_accuracy: 0.8867
    Epoch 3/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.4034 - accuracy: 0.8277 - val_loss: 0.3745 - val_accuracy: 0.9467
    Epoch 4/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.2889 - accuracy: 0.9035 - val_loss: 0.2677 - val_accuracy: 0.9700
    Epoch 5/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.1859 - accuracy: 0.9404 - val_loss: 0.1918 - val_accuracy: 0.9917
    Epoch 6/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.1517 - accuracy: 0.9600 - val_loss: 0.2113 - val_accuracy: 0.9217
    Epoch 7/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.1649 - accuracy: 0.9437 - val_loss: 0.1451 - val_accuracy: 0.9950
    Epoch 8/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0266 - accuracy: 0.9956 - val_loss: 0.2190 - val_accuracy: 0.9883
    Epoch 9/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0457 - accuracy: 0.9884 - val_loss: 0.0719 - val_accuracy: 0.9967
    Epoch 10/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0131 - accuracy: 0.9984 - val_loss: 0.0327 - val_accuracy: 1.0000
    Epoch 11/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.1859 - accuracy: 0.9553 - val_loss: 0.0426 - val_accuracy: 1.0000
    Epoch 12/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0124 - accuracy: 0.9974 - val_loss: 0.0319 - val_accuracy: 0.9983
    Epoch 13/20
    38/38 [==============================] - 1s 28ms/step - loss: 1.2138 - accuracy: 0.9483 - val_loss: 0.0548 - val_accuracy: 0.9983
    Epoch 14/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0025 - accuracy: 0.9998 - val_loss: 0.0389 - val_accuracy: 0.9983
    Epoch 15/20
    38/38 [==============================] - 1s 29ms/step - loss: 0.0013 - accuracy: 1.0000 - val_loss: 0.0148 - val_accuracy: 0.9983
    Epoch 16/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0892 - accuracy: 0.9859 - val_loss: 0.0219 - val_accuracy: 0.9983
    Epoch 17/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0075 - accuracy: 0.9978 - val_loss: 0.0249 - val_accuracy: 0.9983
    Epoch 18/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.3543 - accuracy: 0.9917 - val_loss: 0.0470 - val_accuracy: 0.9950
    Epoch 19/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0064 - accuracy: 1.0000 - val_loss: 0.0309 - val_accuracy: 0.9967
    Epoch 20/20
    38/38 [==============================] - 1s 28ms/step - loss: 0.0029 - accuracy: 0.9997 - val_loss: 0.0602 - val_accuracy: 0.9933
"""

この結果得られた、training_loss,validation_lossをグラフで可視化/確認してみたところ、以下のようになりました。

output2.png

大体、validation_lossはtrain_lossに追従できている感じがしますが、何個かtraining_lossが不連続な点がありました。

結果確認

最後に、学習モデルを使って別に用意して確認用データ(各クラス80枚の画像で構成)で認識率をみていきたいと思います。


#メインテストデータを収集
honoka_verify_path = "/content/drive/MyDrive/HONOKA_verify"
kotori_verify_path = "/content/drive/MyDrive/KOTORI_verify"
honoka_main_data = input_generator(honoka_verify_path,SIZE = 80)
kotori_main_data = input_generator(kotori_verify_path,SIZE = 80)


##結果分析1.割合評価
honoka_score = np.average(prediction_of_honoka)
print("honoka評価指標(0に近いほど良い)",honoka_score)
kotori_score = np.average(prediction_of_kotori)
print("kotori評価指標(1に近いほど良い)",kotori_score)


"""
RESULT:
    honoka評価指標(0に近いほど良い) 0.26125386
    kotori評価指標(1に近いほど良い) 0.7796327
"""

##結果分析2.正解人数評価
def correct(v,person):
    if person == 0:
      return v < 0.5
    else:
      return v > 0.5

honoka_correct_count = np.sum(correct(prediction_of_honoka,0))
kotori_correct_count = np.sum(correct(prediction_of_kotori,1))
print(f"honoka-judge正解回数(うち80試行回数) > {honoka_correct_count}")
print(f"kotori-judge正解回数(うち80試行回数) > {kotori_correct_count}")


"""
RESULT:
    honoka-judge正解回数(うち80試行回数) > 60
    kotori-judge正解回数(うち80試行回数) > 72
"""

 今後の展望

まだ半分くらいしか本を読めていないので、あらかた読んで理解し終えたらKaggleなどにも参加して実際に活用できるようにしたいところです。

[↑ 目次へ]

3.おわりに

機械学習は色々試行錯誤をすることが大切で、直感的なイメージが大切になってくるイメージを強く受けました。

今回得られた判断結果はあまり良い数値ではなさそうですので、更なる改善を目指したいですね〜。

[↑ 目次へ]

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0