0
0

スプライン補間と超解像畳み込みニューラルネットワーク(SRCNN)による高解像化の比較

Posted at

概要

SRCNNとスプライン補間はどちらも画像の解像度を向上させるための手法ですが、アプローチや適用範囲が異なり、それぞれの強みと弱みがあります。どちらが「良い」かは、特定の用途や目的に依存します。

スプライン補間

スプライン補間は、画像の解像度を上げるための古典的な数学的手法です。画像のピクセル間の値を滑らかに補間することで、新しいピクセルを生成します。スプライン補間には、バイキュービック補間や双三次補間といった具体的な手法があり、これらは次のような特徴を持ちます。

長所

  • 計算が高速: スプライン補間は比較的計算が簡単で、処理速度が速いです。リアルタイム処理が求められるアプリケーションに適しています。
  • 実装が簡単: 数学的な背景がしっかりしており、実装が容易です。
  • ハードウェア依存性が低い: 特別なハードウェアや大規模なリソースを必要としません。

短所

  • ディテールの欠如: スプライン補間は、画像内の新しいピクセルを単純な数学的ルールに基づいて生成するため、シャープなエッジや細かいディテールを復元するのが難しいです。
  • アーティファクト: 補間によって発生するアーティファクト(例えばぼやけやハロー効果)が見られることがあります。

SRCNN(Super-Resolution Convolutional Neural Network)

SRCNNは、ディープラーニングに基づく画像超解像手法で、低解像度画像から高解像度画像を生成するためにニューラルネットワークを利用します。

長所

  • 高い画質: SRCNNは、トレーニングデータから学習した複雑なパターンを利用して、細かいディテールやテクスチャを効果的に再現できます。そのため、スプライン補間よりもシャープで詳細な画像を生成できます。
  • 適応性: 学習データに依存して、特定のタイプの画像(例えば、顔や風景)に対して最適化することが可能です。
  • 低解像度画像の限界を超える: SRCNNは単純な補間では補えない細かい特徴を推定し、よりリアルな高解像度画像を生成します。

短所

  • 計算コストが高い: SRCNNの処理はスプライン補間に比べて計算コストが高く、実行にはより多くのリソースと時間が必要です。
  • データ依存性: 高品質な結果を得るには、大量のトレーニングデータが必要です。また、トレーニングされたモデルは特定のタイプの画像に最適化されている可能性があります。
  • ハードウェア依存性: GPUなどの専用ハードウェアがないと、リアルタイム処理が難しい場合があります。

結論

  • スプライン補間が適している場合: リアルタイム性が求められる場面や、計算リソースが限られている場合にはスプライン補間が適しています。また、アーティファクトの発生を容認できる場合にも適しています。

  • SRCNNが適している場合: 画像の品質が最優先で、細部をできるだけ忠実に再現したい場合、特にエッジやテクスチャが重要な画像処理では、SRCNNがより優れた結果をもたらします。

したがって、用途に応じてどちらの手法を選ぶかを決めるのが良いでしょう。一般的には、高い画質が求められる場面ではSRCNNが優れていますが、計算資源やリアルタイム性が求められる場面ではスプライン補間が有効です。

スプライン補間とSRCNNの画像の高解像化の比較

宇宙飛行士の画像を使用して、スプライン補間とSRCNNによる超解像の結果を比較するものです。このコードでは、両手法の処理時間と元の画像に対する正確性(MSEで計算)を比較し、それぞれの処理後の画像を出力します。

MSEの意味

MSEは、モデルが予測した結果と実際の値(ターゲット)との間の誤差を評価する指標の一つです。具体的には、MSEは、予測と実際の値の差を二乗し、その平均を取ったものです。この値が大きいほど予測の誤差が大きく、モデルの性能が悪いことを示します。一方、MSEが小さいほど予測の誤差が小さく、モデルが元の画像に近い高解像度画像を生成していることを示します。

コード全文

import numpy as np
import matplotlib.pyplot as plt
from skimage import data, color, transform, img_as_float
import tensorflow as tf
from tensorflow.keras import layers, models
import time

# 宇宙飛行士の画像を読み込む
image = color.rgb2gray(data.astronaut())  # グレースケールに変換
image = img_as_float(image)

# 低解像度画像を生成
low_res_image = transform.resize(image, (image.shape[0]//5, image.shape[1]//5), anti_aliasing=True)

# スプライン補間を使用して高解像度化
start_time = time.time()
spline_image = transform.resize(low_res_image, image.shape, anti_aliasing=True)
spline_time = time.time() - start_time
spline_mse = np.mean((image - spline_image) ** 2)

# SRCNNモデルの定義
def create_srcnn_model():
    model = models.Sequential()
    model.add(layers.Conv2D(64, (9, 9), activation='relu', padding='same', input_shape=(None, None, 1)))
    model.add(layers.Conv2D(32, (1, 1), activation='relu', padding='same'))
    model.add(layers.Conv2D(1, (5, 5), activation='linear', padding='same'))
    model.compile(optimizer='adam', loss='mean_squared_error')
    return model

# SRCNNで処理するためのデータ準備
low_res_image_srcnn = transform.resize(low_res_image, image.shape, anti_aliasing=True)
low_res_image_srcnn = low_res_image_srcnn.reshape(1, low_res_image_srcnn.shape[0], low_res_image_srcnn.shape[1], 1)
image_srcnn = image.reshape(1, image.shape[0], image.shape[1], 1)

# SRCNNの生成と学習
srcnn = create_srcnn_model()
srcnn.fit(low_res_image_srcnn, image_srcnn, epochs=1000, verbose=0)

# SRCNNで高解像度画像を予測
start_time = time.time()
predicted = srcnn.predict(low_res_image_srcnn)
srcnn_time = time.time() - start_time
srcnn_mse = np.mean((image - predicted[0, :, :, 0]) ** 2)

# 処理時間と正確性の表示
print(f"Spline Interpolation Time: {spline_time:.4f} seconds, MSE: {spline_mse:.6f}")
print(f"SRCNN Time: {srcnn_time:.4f} seconds, MSE: {srcnn_mse:.6f}")

# 画像の表示
plt.figure(figsize=(20, 5))
plt.subplot(1, 4, 1)
plt.title('Original')
plt.imshow(image, cmap='gray')
plt.subplot(1, 4, 2)
plt.title('Low Resolution')
plt.imshow(transform.resize(low_res_image, image.shape, anti_aliasing=True), cmap='gray')
plt.subplot(1, 4, 3)
plt.title('Spline Interpolation')
plt.imshow(spline_image, cmap='gray')
plt.subplot(1, 4, 4)
plt.title('SRCNN')
plt.imshow(predicted[0, :, :, 0], cmap='gray')
plt.show()

出力結果

image.png

・Spline Interpolation Time: 0.0159 seconds, MSE: 0.005236
・SRCNN Time: 0.3750 seconds, MSE: 0.003384

ステップ・バイ・ステップでのコードの説明

1. ライブラリのインポート

import numpy as np
import matplotlib.pyplot as plt
from skimage import data, color, transform, img_as_float
import tensorflow as tf
from tensorflow.keras import layers, models
import time
  • numpy: 数値計算ライブラリ。
  • matplotlib.pyplot: 画像やグラフの表示に使用します。
  • skimage: 画像処理ライブラリで、画像の変換や操作を行います。
  • tensorflowkeras: 深層学習モデルの構築とトレーニングに使用します。
  • time: 処理時間を計測するために使用します。

2. 宇宙飛行士の画像を読み込む

image = color.rgb2gray(data.astronaut())  # グレースケールに変換
image = img_as_float(image)
  • data.astronaut(): サンプル画像として宇宙飛行士のカラー画像を読み込みます。
  • color.rgb2gray(): 画像をグレースケール(白黒)に変換します。
  • img_as_float(): 画像データを浮動小数点数の形式に変換します。これにより、画像のピクセル値が0から1の範囲になります。

3. 低解像度画像を生成

low_res_image = transform.resize(image, (image.shape[0]//5, image.shape[1]//5), anti_aliasing=True)
  • 画像を5分の1の解像度にリサイズして、低解像度画像を生成します。
  • transform.resize(): 画像を指定されたサイズにリサイズします。
  • anti_aliasing=True: リサイズ時にエイリアシング(ジャギー)の影響を抑えるために使用します。

4. スプライン補間を使用して高解像度化

start_time = time.time()
spline_image = transform.resize(low_res_image, image.shape, anti_aliasing=True)
spline_time = time.time() - start_time
spline_mse = np.mean((image - spline_image) ** 2)
  • スプライン補間を使用して、低解像度画像を元の解像度に戻します。
  • start_time = time.time(): スプライン補間の処理開始時の時間を記録します。
  • transform.resize(): 低解像度画像を元の解像度にリサイズします。
  • spline_time = time.time() - start_time: スプライン補間の処理時間を計算します。
  • spline_mse: 元の画像と補間後の画像の間の平均二乗誤差(MSE)を計算します。

5. SRCNNモデルの定義

def create_srcnn_model():
    model = models.Sequential()
    model.add(layers.Conv2D(64, (9, 9), activation='relu', padding='same', input_shape=(None, None, 1)))
    model.add(layers.Conv2D(32, (1, 1), activation='relu', padding='same'))
    model.add(layers.Conv2D(1, (5, 5), activation='linear', padding='same'))
    model.compile(optimizer='adam', loss='mean_squared_error')
    return model
  • SRCNNモデルを定義します。
  • models.Sequential(): モデルを順に積み上げるためのシーケンシャルモデルを作成します。
  • Conv2D(64, (9, 9), activation='relu', padding='same', input_shape=(None, None, 1)): 最初の畳み込み層。9x9のフィルタを64個使用し、ReLU活性化関数を使用します。input_shapeは入力画像のサイズを指定します。
  • Conv2D(32, (1, 1), activation='relu', padding='same'): 次の畳み込み層。1x1のフィルタを32個使用します。
  • Conv2D(1, (5, 5), activation='linear', padding='same'): 最後の畳み込み層。1つの5x5フィルタを使用し、出力を線形に変換します。
  • model.compile(): モデルをコンパイルし、損失関数としてMSEを、オプティマイザとしてAdamを設定します。

6. SRCNNで処理するためのデータ準備

low_res_image_srcnn = transform.resize(low_res_image, image.shape, anti_aliasing=True)
low_res_image_srcnn = low_res_image_srcnn.reshape(1, low_res_image_srcnn.shape[0], low_res_image_srcnn.shape[1], 1)
image_srcnn = image.reshape(1, image.shape[0], image.shape[1], 1)
  • SRCNNモデルで使用するために、低解像度画像を元のサイズにリサイズします。
  • リサイズした画像をモデルに入力できるように、バッチサイズ1の形状にリシェイプします。

7. SRCNNの生成と学習

srcnn = create_srcnn_model()
srcnn.fit(low_res_image_srcnn, image_srcnn, epochs=1000, verbose=0)
  • SRCNNモデルを生成します。
  • モデルを1000エポック学習させます。このとき、入力としてリサイズした低解像度画像を使用し、出力として元の高解像度画像を使用します。

8. SRCNNで高解像度画像を予測

start_time = time.time()
predicted = srcnn.predict(low_res_image_srcnn)
srcnn_time = time.time() - start_time
srcnn_mse = np.mean((image - predicted[0, :, :, 0]) ** 2)
  • 学習済みSRCNNモデルを使用して、低解像度画像から高解像度画像を予測します。
  • srcnn_time = time.time() - start_time: SRCNNの処理時間を計算します。
  • srcnn_mse: 元の画像とSRCNNで予測された画像の間の平均二乗誤差(MSE)を計算します。

9. 処理時間と正確性の表示

print(f"Spline Interpolation Time: {spline_time:.4f} seconds, MSE: {spline_mse:.6f}")
print(f"SRCNN Time: {srcnn_time:.4f} seconds, MSE: {srcnn_mse:.6f}")
  • スプライン補間とSRCNNの処理時間、およびそれぞれのMSEを表示します。

10. 画像の表示

plt.figure(figsize=(20, 5))
plt.subplot(1, 4, 1)
plt.title('Original')
plt.imshow(image, cmap='gray')
plt.subplot(1, 4, 2)
plt.title('Low Resolution')
plt.imshow(transform.resize(low_res_image, image.shape, anti_aliasing=True), cmap='gray')
plt.subplot(1, 4, 3)
plt.title('Spline Interpolation')
plt.imshow(spline_image, cmap='gray')
plt.subplot(1, 4, 4)
plt.title('SRCNN')
plt.imshow(predicted[0, :, :, 0], cmap='gray')
plt.show()
  • 元の画像、低解像度画像、スプライン補間による画像、SRCNNによる画像を表示します。これにより、各手法の違いを視覚的に比較できます。
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0