1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIエンジニアへの道 - 12日目:画像データの前処理!リサイズ、正規化、データ拡張

Last updated at Posted at 2025-07-18

12日目:画像データの前処理!リサイズ、正規化、データ拡張

皆さん、こんにちは!AI学習ロードマップ12日目を迎えました。昨日は非構造化データであるテキストデータの前処理と数値化について学びましたね。今日は、画像認識のCNN(畳み込みニューラルネットワーク)で扱う「画像データ」に特化した前処理テクニックについて深く掘り下げていきます。

画像データは、テキストデータと同様にAIモデルに直接入力できる形ではありません。ピクセル値の範囲、画像のサイズ、そしてモデルの汎化能力を高めるための工夫が必要です。特に、リサイズ、正規化といった必須の処理と、モデルの精度向上に非常に効果的な「データ拡張(Data Augmentation)」について詳しく解説します。

本日は、これらの画像データ前処理の重要性と具体的な手法を、PythonのOpenCVPillow、そしてTensorFlow/Kerasを使った実装例とともに見ていきましょう。


1. なぜ画像データの前処理が必要なのか?

画像データをAIモデルに入力する際には、以下のような理由から前処理が不可欠です。

  • 入力形式の統一: AIモデルは固定サイズの入力(例:224x224ピクセル)を期待することが多いため、様々なサイズの画像を統一する必要があります。
  • 値の範囲の調整: ピクセル値(通常0-255)の範囲をモデルが扱いやすい形(例:0-1や-1-1)に調整することで、学習の安定性と効率が向上します。
  • 計算負荷の軽減: 必要以上に大きな画像を扱うと、計算リソースが無駄に消費されます。
  • 汎化能力の向上(過学習防止): 限られたデータセットからモデルが頑健な特徴を学習できるよう、人工的にデータを多様化させる必要があります。

2. 基本的な画像データ前処理テクニック

2.1. リサイズ (Resizing)

異なるサイズの画像をモデルの入力サイズに合わせるために行います。

  • 縮小/拡大: モデルの要件に合わせて画像の縦横ピクセル数を調整します。
  • アスペクト比の維持: 単純にリサイズするとアスペクト比が崩れて画像が歪むことがあります。アスペクト比を維持しつつ、余白を追加(パディング)したり、中央を切り抜いたりする方法もあります。
from PIL import Image # Python Imaging Library (Pillow)
import numpy as np
import matplotlib.pyplot as plt

# ダミー画像の作成 (例: 100x150ピクセルの画像)
# NumPy配列で画像を表現し、PIL.Imageで操作
original_image_array = np.random.randint(0, 256, (150, 100, 3), dtype=np.uint8) # 高さ150, 幅100, RGB
original_image = Image.fromarray(original_image_array)

print(f"オリジナル画像サイズ: {original_image.size}")

# モデルが期待するサイズ (例: 64x64ピクセル) にリサイズ
target_size = (64, 64)
resized_image = original_image.resize(target_size)

print(f"リサイズ後画像サイズ: {resized_image.size}")

# 画像の表示
fig, axes = plt.subplots(1, 2, figsize=(8, 4))
axes[0].imshow(original_image)
axes[0].set_title(f'Original Image ({original_image.size[0]}x{original_image.size[1]})')
axes[0].axis('off')

axes[1].imshow(resized_image)
axes[1].set_title(f'Resized Image ({resized_image.size[0]}x{resized_image.size[1]})')
axes[1].axis('off')
plt.tight_layout()
plt.show()

# アスペクト比を維持しつつリサイズし、パディングする例 (OpenCVを使うことが多いがPillowでも可能)
# これはもう少し複雑になるため、ここでは省略し概念のみ提示

2.2. ピクセル値の正規化 (Normalization)

ピクセル値を特定の範囲にスケーリングします。これにより、モデルの学習が安定し、収束が速くなります。

  • [0, 1]への正規化: 最も一般的です。各ピクセル値を255で割るだけです。
    $Pixel_{normalized} = \frac{Pixel_{original}}{255.0}$
  • [-1, 1]への正規化: 特定のネットワーク(特にGANなど)で使われることがあります。
    $Pixel_{normalized} = \frac{Pixel_{original}}{127.5} - 1.0$
  • 標準化 (Z-score normalization): 平均0、標準偏差1になるようにスケーリングします。画像全体またはチャネルごとの平均と標準偏差を使用します。
    $Pixel_{normalized} = \frac{Pixel_{original} - \mu}{\sigma}$
# リサイズ後の画像をNumPy配列に変換
resized_image_array = np.array(resized_image)
print(f"\nリサイズ後のピクセル値の範囲: {resized_image_array.min()} - {resized_image_array.max()}")

# [0, 1]への正規化
normalized_image_01 = resized_image_array / 255.0
print(f"[0, 1]正規化後のピクセル値の範囲: {normalized_image_01.min():.2f} - {normalized_image_01.max():.2f}")

# [-1, 1]への正規化
normalized_image_m11 = (resized_image_array / 127.5) - 1.0
print(f"[-1, 1]正規化後のピクセル値の範囲: {normalized_image_m11.min():.2f} - {normalized_image_m11.max():.2f}")

# 標準化 (ここでは簡易的に、画像全体の平均と標準偏差を使う)
mean_val = resized_image_array.mean()
std_val = resized_image_array.std()
standardized_image = (resized_image_array - mean_val) / std_val
print(f"標準化後のピクセル値の平均: {standardized_image.mean():.2f}, 標準偏差: {standardized_image.std():.2f}")

# 正規化後の画像はそのままではimshowで表示しにくいので、表示用に範囲を調整
plt.figure(figsize=(12, 4))
plt.subplot(1, 3, 1)
plt.imshow(normalized_image_01)
plt.title('[0, 1] Normalized')
plt.axis('off')

plt.subplot(1, 3, 2)
plt.imshow((normalized_image_m11 + 1) / 2) # 表示のために[0,1]に戻す
plt.title('[-1, 1] Normalized')
plt.axis('off')

plt.subplot(1, 3, 3)
plt.imshow((standardized_image - standardized_image.min()) / (standardized_image.max() - standardized_image.min())) # 表示のために[0,1]に戻す
plt.title('Standardized')
plt.axis('off')
plt.tight_layout()
plt.show()

3. データ拡張 (Data Augmentation):モデルの汎化能力向上

データ拡張は、既存の画像を加工して多様な「新しい」訓練データを生成するテクニックです。これにより、モデルはより多様なバリエーションの画像から学習できるようになり、過学習を防ぎ、未知の画像に対する汎化能力を向上させることができます。特に画像データが少ない場合に非常に有効です。

3.1. 一般的なデータ拡張の手法

  • 水平反転 (Horizontal Flip): 左右を反転させます。(例:犬の画像であれば、左右反転しても犬であることに変わりはない)
  • 垂直反転 (Vertical Flip): 上下を反転させます。(水平反転より適用できるケースは少ない)
  • 回転 (Rotation): 画像をわずかに回転させます。
  • 拡大・縮小 (Zooming): 画像の一部を拡大したり、全体を縮小したりします。
  • 平行移動 (Shifting): 画像を上下左右にわずかにずらします。
  • 剪断 (Shear Mapping): 画像を斜めに歪ませます。
  • 明るさ・コントラスト調整: 画像の明るさやコントラストをランダムに変更します。
  • ノイズ追加: 画像にランダムなノイズを加えます。
  • ランダムクロップ (Random Cropping): 画像からランダムな領域を切り抜きます。
  • Cutout/Mixup/RandAugment: より高度なデータ拡張手法。

3.2. Pythonでの実装例 (Keras ImageDataGenerator)

tf.keras.preprocessing.image.ImageDataGeneratorは、データ拡張を効率的に行うためのKerasの便利なクラスです。

from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.utils import img_to_array, load_img
import matplotlib.pyplot as plt
import numpy as np

# ダミー画像を生成 (例: 1枚の鳥の画像)
# 実際の画像ファイルパスを指定してください。ここではOpenCVで適当な画像を作成
try:
    import cv2
    dummy_image = np.zeros((100, 100, 3), dtype=np.uint8)
    dummy_image[20:80, 20:80] = [255, 100, 0] # 適当な四角を描画
    cv2.imwrite('dummy_bird.png', dummy_image)
    img_path = 'dummy_bird.png'
except ImportError:
    print("OpenCV not found, creating dummy image array directly.")
    # OpenCVがない場合でも実行できるようにNumPy配列でダミー画像を直接作成
    img_array = np.zeros((100, 100, 3), dtype=np.uint8)
    img_array[20:80, 20:80] = [255, 100, 0]
    # Pillowで画像オブジェクトに変換 (ImageDataGeneratorの入力形式に合わせるため)
    img = Image.fromarray(img_array)
    img.save('dummy_bird.png')
    img_path = 'dummy_bird.png'


img = load_img(img_path) # 画像を読み込み
x = img_to_array(img)   # NumPy配列に変換 (高さ, 幅, チャネル)
x = x.reshape((1,) + x.shape) # バッチ次元を追加 (1, 高さ, 幅, チャネル)

# ImageDataGeneratorの設定
datagen = ImageDataGenerator(
    rotation_range=40,        # ランダムに40度まで回転
    width_shift_range=0.2,    # ランダムに幅の20%まで水平移動
    height_shift_range=0.2,   # ランダムに高さの20%まで垂直移動
    shear_range=0.2,          # シアー変換 (斜めへの歪み)
    zoom_range=0.2,           # ランダムに20%まで拡大
    horizontal_flip=True,     # 水平反転
    fill_mode='nearest',      # 変換で生じた空白をどう埋めるか ( nearest, reflect, wrap, constant)
    rescale=1./255            # ピクセル値を[0, 1]に正規化
)

# 生成された画像をいくつか表示
plt.figure(figsize=(10, 10))
i = 0
for batch in datagen.flow(x, batch_size=1):
    plt.subplot(3, 3, i + 1)
    plt.imshow(batch[0])
    plt.axis('off')
    i += 1
    if i % 9 == 0:
        break
plt.suptitle('Data Augmentation Examples')
plt.tight_layout(rect=[0, 0.03, 1, 0.95]) # Adjust layout to prevent title overlap
plt.show()

ImageDataGeneratorを使うと、モデルの学習中に自動的にデータ拡張を適用できます。これにより、ディスク上に大量の加工済み画像を保存する必要がなく、効率的に多様なデータをモデルに提供できます。


4. まとめと次へのステップ

本日は、AI学習ロードマップの12日目として、画像データをAIモデルに最適に入力するための重要な前処理テクニックを学びました。

  • 画像データをAIモデルが扱える形式に統一し、学習効率を高めるために、リサイズ正規化が必須であることを理解しました。
  • モデルの汎化能力を向上させ、過学習を防ぐために、データ拡張(Data Augmentation) が非常に有効であることを学びました。水平反転、回転、ズーム、平行移動など、多様な拡張手法があることを知りました。
  • PillowTensorFlow/KerasImageDataGeneratorを使って、これらの前処理やデータ拡張をPythonで実装する方法を確認しました。

画像データの前処理とデータ拡張は、特にディープラーニングを用いた画像認識プロジェクトにおいて、モデルの性能を大きく左右する要因となります。実際のプロジェクトでは、データセットの特性やモデルの種類に応じて、最適な前処理と拡張の手法を選択し、調整していくことが重要です。

明日からは、教師なし学習の領域、特に「クラスタリング」の概念と、その代表的なアルゴリズムであるK-Meansについて学んでいきます。顧客のセグメンテーションや異常検知など、多様なビジネス課題に応用される強力な手法です。

それでは、また明日!


1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?