4
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

画像ファイルを分析・学習に使えるように読み込む方法を紹介します

Posted at

はじめに

自分のローカルの画像ファイルを使って、識別・分類をやってみたいとなった時に、まず画像データを学習に使えるように読み込む必要があります。

チュートリアルとかだとTensorFlowのdatasetでmnistをダウンロードする等が多く、自分のローカルの画像ファイルを使って識別させたい!ってなった時に**「ん?読み込みってどないすりゃええねん...。」**となることを防ぐことを目的としてざっと紹介できればと思います。

色々やり方はあるのですが、自分が一番使っている方法を紹介できたらと思います。
主な流れとしては

  1. 画像データとラベルデータの配列を作成
  2. それをもとにnpzファイルを作成

となっています。
npzファイルにしておけばそこから読み取るだけですぐにデータセット化できるし楽なので愛用しています。

その後でTensorflowfrom_tensor_slicesなどでミニバッチ化したりといった応用が効くのも好きなポイントですね。

少しでも画像読み込みのハードルを下げられればと思ってますので参考になれば幸いです。

実行環境・使う画像データ

実行環境はAnacondaのJupyterlabを使います。
Google Colaboratoryを使っている人はGドライブから読み込む形で読み替えていただければ。

使うデータですが、KaggleのDogs vs. Catsコンペの犬と猫の画像を使います。

train/
test1/
sampleSubmission.csv

以上のように2つフォルダと1つの提出用csvファイルがあるので
この中のtrainフォルダの中に犬と猫の画像が合わせて25000枚あるのでこれらを読み込んでいきたいと思います。

1. 画像データとラベルデータの配列を作る方法

前置きが長くなりましたが、早速1番目の画像データとラベルデータの配列を作るやり方からやっていきます。

# 必要なものをimport
import numpy as np
import glob
import cv2
import matplotlib.pyplot as plt

# ディレクトリの指定
train_dir = './train'
test_dir = './test'

# カテゴリネームと番号を対応させた辞書を作成(ラベルは数値で保存します)
label_dict = {
    'dog' : 0,
    'cat' : 1 }

# 画像とラベルを格納する空のリストを作る
Images = []
Labels = []

# 指定したディレクトリの画像パスを全て取得して処理していく
for image_path in glob.glob(train_dir + '/*'):
    label_name = image_path.split('/')[-1].split('.')[0] # 下で補足します

    # ラベル番号の取得
    label = label_dict[label_name]

    # 画像の読み込み
    img = cv2.imread(image_path)

    # RGB形式に変換
    img_rgb = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    
    # サイズがバラバラなので今回は224×224に統一
    img_resize = cv2.resize(img_rgb, (224,224))

    # ndarray型に変換
    numpy_img = np.array(img_resize)

    # 指定した形にリシェイプ
    numpy_img = numpy_img.reshape(224, 224, 3)

    # float32型にして255で割ることで[0,1]スケールの正規化
    numpy_img = numpy_img.astype('float32')
    numpy_img = numpy_img / 255

    画像とラベルをリストに格納
    Images.append(numpy_img)
    Labels.append(label)

globやsplitの挙動を補足しておくと

glob.glob(train_dir + '/*')
# ->
#['./train/dog.8011.jpg',
# './train/cat.5077.jpg',
# './train/dog.7322.jpg',
# './train/cat.2718.jpg',
# './train/cat.10151.jpg',
# './train/cat.3406.jpg',
# './train/dog.1753.jpg',
# './train/cat.4369.jpg',
# './train/cat.7660.jpg',
# './train/dog.5535.jpg',
# './train/cat.8553.jpg',
# './train/cat.9895.jpg',
# './train/cat.1211.jpg',
# './train/dog.3144.jpg',
# './train/dog.775.jpg',
# './train/dog.11102.jpg',
# ...]
# 指定した形式に合うファイルパスのリストを取得する

----------------------------------
image_path = './train/dog.5535.jpg'
image_path.split('/')
# -> ['.', 'train', 'dog.5535.jpg']
# / でファイルパスを区切った要素のリストを作成

image_path.split('/')[-1]
# -> 'dog.5535.jpg'
# dogが含まれる一番最後の部分を取得

image_path.split('/')[-1].split('.')
# -> ['dog', '5535', 'jpg']
# 'dog.5535.jpg'を '.' で区切る

image_path.split('/')[-1].split('.')[0]
# -> 'dog'
# 一個上のリストの最初にdogがあるのでこれを取得

こんな感じになっています。
label_name = image_path.split('/')[-1].split('.')[0]で 'dog'か'cat'が取得できるのでそれを元に辞書を使って0か1かのラベル番号を取得しています。

また今回はカラー画像なのでcv2.cvtColorでRGB形式にしています。

なぜかは見た方が早いので

cat.9.jpg

上記画像を例にします。

image_path = './train/cat.9.jpg' 

img = cv2.imread(image_path)
img_rgb = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)

imgの方をplt.imshowで表示するとこんな感じ
download.png

色味が変わってますよね。

今度はimg_rgbの方を表示しますと
download.png

元の画像と一緒ですね。

cv2.imreadは画像をB→G→Rの順番で読み込むので注意です。
この辺り忘れがちなので気をつけたいポイントです。

※ちなみにcv2.cvtColorを使わないやり方もあるので紹介します。

image_path = './train/cat.9.jpg'
img = cv2.imread(image_path)
b,g,r = cv2.split(img)
img_rgb = cv2.merge([r,g,b])

cv2.splitでチャネルごとにアンパックで代入して、RGBの順番でマージするやり方です。

お好きな方でいいと思います。

さてちゃんと画像とラベルが対応しているかも見ていきましょう。

plt.imshow(Images[1])
plt.title(Labels[1])

download.png

1はcatなので対応できていますね。

2. npzファイルを作る

さて、できた画像の配列とラベルの配列をもとにnpzファイルを作っていきます。

npzファイルはnumpy独自のバイナリファイルです。

# 第1引数はファイル名、第2引数以降は [キー名 = 配列]の形で書く
np.savez('train_img.npz', img = Images, label = Labels)

これでtrain_img.npzファイルが作成されます。

# npzファイルを読み込む
data = np.load('train_img_npz')

# 画像とラベルをそれぞれXとyに代入
X = data[img]
y = data[label]

これでnpzファイルから画像データとラベルデータを読み込めました。
ちゃんと読み込めているか確認してみましょう。

X.shape, y.shape
# -> ((25000, 224, 224, 3), (25000,))

しっかりと画像データは4次元テンソルになっていて件数も問題ないですね。
これをfit(X, y)のようにすれば学習可能です。

また

# X:画像データ y:ラベルデータをセットでdataset化
dataset = tf.data.Dataset.from_tensor_slices((X, y))

# シャッフル
dataset = dataset.shuffle(25000)

# ミニバッチ化
#(drop_remainder = Trueで端数切り捨て)
# バッチサイズを128で固定したいため。
dataset = dataset.batch(128, drop_remainder=True)

とかってすればシャッフル済みでミニバッチ化されたデータセットを作成可能です。

まとめ

自分がよく使っている画像の読み込み方法をお伝えしました。

ただこれが一番いいってわけじゃなくてディレクトリ構造の指定はありますが
kerasImageDataGeneraterを利用すれば、水増しなどの処理が楽です。

ニーズに応じて使い分けが必要ですね。

少しでも自分のローカル画像ファイル使って加工、分析やってみたいって方のハードルが下がれば幸いです。

4
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?