LoginSignup
8
9

More than 3 years have passed since last update.

深層学習の事例を作ってみようかなと考え、畳み込みニューラルネットワークでトミカの車種を識別してみることを思いついたので試してみた

Last updated at Posted at 2019-06-22

はじめに

最近、機械学習や深層学習の問い合わせが増えてきていて、もう少し実践的な事例を少し増やしてみたほうが良いかな〜なんて考えていたら家にトミカがいくつかあったのでこれを使って畳み込みニューラルネットワーク(CNN)を試してみました。

用意したもの

  • パソコン(MacPro, RAM 64GB, SSD 256GB + HDD 4TB)
  • Python 3.x(pyenv + Anaconda)
  • OpenCV
  • TensorFlow
  • Keras
  • Yolo(DarkFlow)
  • ターンテーブル(ダイソーで150円でした)
  • スマートフォン用3脚(ダイソーで100円でした)
  • 撮影用スマートフォン(iPhone)

データ作成

これと...

IMG_8233.jpeg

これを...

IMG_8234.jpeg

使って、ターンテーブルを手でくるくる回しながら...

IMG_8238.jpeg

動画を撮影します。
撮影した動画は以下のような感じ。

ビデオが開けなかった場合に表示されるテキスト

撮影した動画はファイル名から車種がわかるように、発売年と番号を使ったファイル名にしておきます(例「0000-000.mov」)。

今回は手元にあった3つのトミカを使用しました。

環境構築

大まかな部分は以下の記事を参照。
ただ、今ではOpenCVはコマンド一発でインストールできるので、Anacondaを入れたら以下の手順に進んで下さい。

Macで深層学習の環境をさくっと作る手順 with TensorFlow and OpenCV

  • OpenCV
pip install opencv-python
  • TensorFlow
pip install tensorflow

tensorflowのバージョンが2.0以降では動作しないようなので、以下の対応が必要。

pip uninstall tensorflow
pip install tensorflow==1.14
  • Keras
pip install keras
  • Yolo
git clone https://github.com/thtrieu/darkflow.git
cd darkflow
pip install .

ついでにこちらもダウンロードしておきます。

Yoloのモデルデータ

作業ディレクトリ

ホームにworkというフォルダを作成して作業します。

cd ~/
mkdir work
cd work
mkdir bin
mkdir cfg
mkdir mov
mkdir img

ここで、binには先ほどダウンロードしたyolov3.weightsを入れます。
cfgにはdrakfowの中にあるcfgフォルダからyolo.cfgをコピーします。
movには先ほど撮影したトミカの動画を入れておきます。
imgには次のステップで動画から切り出したトミカの画像を入れます。

トミカ画像の抽出

以下のスクリプトを作成して実行。

detection.py
import cv2
import os
from glob import glob

from darkflow.net.build import TFNet

# Yoloの初期化
options = {
    "model": "cfg/yolo.cfg", 
    "load": "bin/yolov3.weights", 
    "threshold": 0.4, 
    "gpu": 0.4
}
tfnet = TFNet(options)

# 動画ファイル取得
files = glob("mov/*.MOV")

for file in files:

    image_dir = "img/"

    # 動画名から保存用ディレクトリを作成
    dirname = filename.split("/")[1].split(".")[0]
    image_dir = image_dir + dirname + "/"
    print(image_dir)

    os.mkdir(image_dir)

    # 動画読込
    cap = cv2.VideoCapture(filename)
    print("frame count : {}".format(cap.get(cv2.CAP_PROP_FRAME_COUNT)))

    i = 0
    cnt = 0

    while(cap.isOpened()):

        # フレーム画像を取得
        flag, src = cap.read()
        if flag == False:
            break

        # 被写体を検出
        result = tfnet.return_predict(src)

        # 検出物体を切り出し、連番でファイルに保存
        for rs in result:

            if rs["label"] == "car":
                top = rs["topleft"]["y"]
                left = rs["topleft"]["x"]
                bottom = rs["bottomright"]["y"]
                right = rs["bottomright"]["x"]

                dst = src[top:bottom, left:right]
                dst = cv2.resize(dst, (224,224))

                cv2.imwrite(image_dir + "{:06}.jpg".format(cnt), dst)

                cnt += 1

        i += 1

    cap.release()

実行が終わると、以下のようにトミカのみを抽出した画像が入手できます。

スクリーンショット 2019-06-23 7.21.10.png

感覚的にターンテーブルは2回くらい回せば十分な画像が手にな入るかなと思います(^-^)

画像を学習

以下のスクリプトを作成して実行。

train.py
import cv2
import numpy as np
import sys
import os
from glob import glob
import random

from sklearn import model_selection
from sklearn.metrics import confusion_matrix

from keras.utils.np_utils import to_categorical
from keras.models import Sequential
from keras.layers import Activation, Conv2D, Dense, Flatten, MaxPooling2D

files = glob("img/*/*.jpg")

# ラベル作成
labels = []

for file in files:
    label = file.split("/")[1]
    if label not in labels:
        print(label)
        labels.append(label)        

labels.sort()

# ファイル読込
ref = list(range(len(files)))
random.shuffle(ref)

X = []
y = []

for i in ref:

    file = files[i]

    label = file.split("/")[1]
    y.append(labels.index(label))

    img = cv2.imread(file)
    X.append(img)

X = np.array(X)
X = X / 255

# データを学習・検証・テスト用に分割
X_train, X_test, y_train, y_test = model_selection.train_test_split(X, y, test_size=.5, random_state=42)
X_valid, X_test, y_valid, y_test = model_selection.train_test_split(X_test, y_test, test_size=.5, random_state=42)

y_train = to_categorical(y_train)
y_valid = to_categorical(y_valid)
y_test = to_categorical(y_test)

# 学習モデルの作成
model = Sequential()

input_shape = X[0].shape
model.add(Conv2D(input_shape=input_shape, filters=32, kernel_size=(3, 3), strides=(1, 1), padding="same", activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(filters=32, kernel_size=(3, 3), strides=(1, 1), padding="same"))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(filters=32, kernel_size=(3, 3), strides=(1, 1), padding="same"))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten())
model.add(Dense(256))
model.add(Activation("sigmoid"))
model.add(Dense(128))
model.add(Activation('sigmoid'))

model.add(Dense(len(labels)))
model.add(Activation('softmax'))

# モデルのコンパイル
model.compile(optimizer='sgd', loss='categorical_crossentropy', metrics=['accuracy'])

# 学習
history = model.fit(X_train, y_train, batch_size=10, epochs=5, verbose=1, shuffle=True, validation_data=(X_valid, y_valid))

# 予測
pred = model.predict(X_test,batch_size=1)
y_obs  = []
y_pred = []

for i in range(len(pred)):
    y_obs.append(np.argmax(y_test[i]))
    y_pred.append(np.argmax(pred[i]))

print(confusion_matrix(y_obs, y_pred))

実行結果。

Train on 650 samples, validate on 325 samples
Epoch 1/5
650/650 [==============================] - 61s 93ms/step - loss: 1.0946 - acc: 0.4554 - val_loss: 0.9541 - val_acc: 0.4492
Epoch 2/5
650/650 [==============================] - 58s 90ms/step - loss: 0.7881 - acc: 0.6954 - val_loss: 0.5581 - val_acc: 0.7015
Epoch 3/5
650/650 [==============================] - 60s 93ms/step - loss: 0.4407 - acc: 0.8492 - val_loss: 0.3551 - val_acc: 0.9754
Epoch 4/5
650/650 [==============================] - 61s 93ms/step - loss: 0.2700 - acc: 0.9877 - val_loss: 0.2128 - val_acc: 0.9908
Epoch 5/5
650/650 [==============================] - 60s 92ms/step - loss: 0.1481 - acc: 1.0000 - val_loss: 0.1389 - val_acc: 0.9908

array([[ 93,   0,   0],
       [  0, 139,   0],
       [  0,   0,  93]])

できた!

その後

3台だった車種を6台に増やして、新しく撮影した写真をつかって正しく車種を識別できるか試してみました。

まず、上述の学習スクリプトの末尾に以下の一文を追記して再学習。

train.py
#モデルを保存
model.save("mdl_tomica.h5")

mdl_tomica.h5に学習済みモデルが保存されるので、これを読み込んで車種を識別するスクリプトを作成します。

prediction.py
import cv2
import numpy as np
import sys
import os
from glob import glob
import random

from darkflow.net.build import TFNet
from keras.models import load_model

# Yoloの初期化

options = {
    "model": "cfg/yolo.cfg", 
    "load": "bin/yolo3.weights", 
    "threshold": 0.4, 
    "gpu": 0.4
}
tfnet = TFNet(options)

# ラベル初期化

files = glob("img/*")

labels = []

for file in files:
    label = file.split("/")[1]
    if label not in labels:
        print(label)
        labels.append(label)

labels.sort()

# 学習済みモデル読込
model = load_model("mdl_tomica.h5")

# 識別用関数
def pred_from_file(file):

    src = cv2.imread(file)
    print(type(src))

    result = tfnet.return_predict(src)
    result

    for rs in result:

        top = rs["topleft"]["y"]
        left = rs["topleft"]["x"]
        bottom = rs["bottomright"]["y"]
        right = rs["bottomright"]["x"]

        dst = src[top:bottom, left:right]
        dst = cv2.resize(dst, (224,224))

        X_pred = [dst]
        X_pred = np.array(X_pred)
        X_pred = X_pred / 255

        pred = model.predict(X_pred,batch_size=1)
        print(pred)
        print(labels[np.argmax(pred)])
        print()

files = "img/IMG_8235.jpeg"

print("* " + file)
pred_from_file(file)

使用したのはこの写真。

IMG_8235.jpeg

Yoloで抽出した画像は以下のような感じ。

Unknown.png

実行した結果は、以下のとおり。

* img/IMG_8235.jpeg
<class 'numpy.ndarray'>
[[0.02794252 0.00380562 0.05379121 0.28816053 0.61778307 0.00851709]]
2005-33

正解!

No.33 トヨタ ヴィッツ★初回特別カラー (トミカ)

これは台数増やしても高精度で識別できるんだろうか...試すか、もうやめるか...悩むところですね〜。

8
9
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
8
9