LoginSignup
65
68

More than 5 years have passed since last update.

OpenCVで台形補正がしたかった話。応用編。

Last updated at Posted at 2018-02-28

OpenCVで台形補正したい!

と思ってネットサーフィンしてたんですが、以下のような問題が。

  • 二値化する時のパラメータの根拠って何?
  • 出力座標の値の根拠って何?
  • そもそも四角形じゃない場合どうなるの?

どこに転がってるサンプルコードも共通でこんな感じでした。
定数で書かれてて、コメントもなかったら、何の根拠でその数字なのか分からないよ...
(サンプルコードだから許せるけど、仕事だったら白目になるやつ)

参考にさせてもらったコード

OpenCVを使って画像の射影変換をしてみるwithPython
こちら拝借させていただきました。
勝手に使って申し訳ありません、、、

とりあえず最終形

import sys
import cv2
import numpy as np


# ファイル名取得
if len(sys.argv) < 2:
    print("Usage: $ python " + sys.argv[0] + " sample.jpg")
    exit()
filename = sys.argv[1]

# ファイル読込み
img = cv2.imread(filename)
size = img.shape[0] * img.shape[1]

# グレースケール化
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

# 入力座標の選定
best_white = 0
best_rate = 0.0
best_approx = []
dict_approx = {}
for white in range(10, 255, 10):
    # 二値化
    ret, th1 = cv2.threshold(gray, white, 255, cv2.THRESH_BINARY)

    # 輪郭抽出
    image, contours, hierarchy = cv2.findContours(th1, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)

    # 面積が以下の条件に満たすものを選定
    # 角の数が4つ、1%以上、99%未満
    max_area = 0
    approxs = []
    for cnt in contours:
        area = cv2.contourArea(cnt)
        epsilon = 0.1 * cv2.arcLength(cnt, True)
        tmp = cv2.approxPolyDP(cnt, epsilon, True)
        if 4 == len(tmp):
            approxs.append(tmp)
            if size * 0.01 <= area\
            and area <= size * 0.99\
            and max_area < area:
                best_approx = tmp
                max_area = area
    if 0 != max_area:
        rate = max_area / size * 100
        if best_rate < rate:
            best_rate = rate
            best_white = white
    dict_approx.setdefault(white, approxs)

if 0 == best_white:
    print("The analysis failed.")
    exit()

# 出力座標の計算(三平方の定理)
r_btm = best_approx[0][0]
r_top = best_approx[1][0]
l_top = best_approx[2][0]
l_btm = best_approx[3][0]
top_line   = (abs(r_top[0] - l_top[0]) ^ 2) + (abs(r_top[1] - l_top[1]) ^ 2)
btm_line   = (abs(r_btm[0] - l_btm[0]) ^ 2) + (abs(r_btm[1] - l_btm[1]) ^ 2)
left_line  = (abs(l_top[0] - l_btm[0]) ^ 2) + (abs(l_top[1] - l_btm[1]) ^ 2)
right_line = (abs(r_top[0] - r_btm[0]) ^ 2) + (abs(r_top[1] - r_btm[1]) ^ 2)
max_x = top_line  if top_line  > btm_line   else btm_line
max_y = left_line if left_line > right_line else right_line

# 画像の座標上から4角を切り出す
pts1 = np.float32(best_approx)
pts2 = np.float32([[max_x, max_y], [max_x, 0], [0, 0], [0, max_y]])

# 透視変換の行列を求める
M = cv2.getPerspectiveTransform(pts1, pts2)

# 変換行列を用いて画像の透視変換
src = cv2.imread(filename)
dst = cv2.warpPerspective(src, M, (max_x, max_y))

# 結果出力
print("Best parameter: white={} (rate={})".format(best_white, best_rate))

cv2.imwrite("_corrected." + filename, dst)

src = cv2.imread(filename)
cv2.drawContours(src, dict_approx[best_white], -1, (0, 255, 0), 3)
cv2.imwrite("_detail.{}".format(filename), src)

検証

まずは使用画像

使用画像は以下の通り。
使用させていただいた名刺の画像も拝借しました。
(たびたび申し訳ありません...)

meishi.jpeg

白背景
kenketsu_card.jpg
kenketsu_point.jpg

黒背景(後からやるけど、白背景だと解析が上手くいかなかったので黒背景も用意しておいた)
kenketsu_card_black.jpg
kenketsu_point_black.jpg

二値化する時のパラメータの根拠って何?

該当コードはこちら。

# 二値化
ret, th1 = cv2.threshold(gray, white, 255, cv2.THRESH_BINARY)

どこのサンプルコードもwhiteの部分がベタ書きされてました。
ここの値を変えると輪郭抽出の結果が変わってきます。
暗めの画像だったり、背景と同化してたり、逆に背景と真逆の色になってると、その都度変えないといけません。

人力で設定するの面倒くさい。

とりあえず、このwhiteの部分を10ずつカウントアップして、どういう値が取れるのか検証してみました。
5枚とも全部やったんですが、今回は傾向が顕著に見えた「名刺」だけ置いておきます。

#
# format
# 白 : 面積 (比率)
#
$ python correctionKeystone.py meishi.jpeg 
10 : 478601.0 (99.70854166666666%)
20 : 478601.0 (99.70854166666666%)
30 : 478601.0 (99.70854166666666%)
40 : 478599.0 (99.70812500000001%)
50 : 478591.0 (99.70645833333333%)
60 : 478543.5 (99.6965625%)
70 : 478411.5 (99.66906250000001%)
80 : 478012.5 (99.5859375%)
90 : 476445.5 (99.25947916666667%)
100 : 52.5 (0.010937500000000001%)
110 : 79.0 (0.016458333333333335%)
120 : 102.0 (0.021249999999999998%)
130 : 90.5 (0.018854166666666665%)
140 : 92.0 (0.01916666666666667%)
150 : 107.5 (0.022395833333333334%)
160 : 110.0 (0.022916666666666665%)
170 : 115.0 (0.02395833333333333%)
180 : 66103.5 (13.771562500000002%)
190 : 65999.5 (13.749895833333333%)
200 : 65905.0 (13.730208333333332%)
210 : 129.0 (0.026875%)
220 : 133.0 (0.027708333333333335%)
230 : 5.0 (0.0010416666666666667%)
240 : 2.0 (0.0004166666666666667%)
250 : 0 (0.0%)

white=30
_detail.30.meishi.jpeg

white=180
_detail.180.meishi.jpeg

white=240
_detail.240.meishi.jpeg

傾向として見えてきたのは、以下の通りです。

  • 値が小さすぎると、輪郭補正の時に外郭を取ってしまって使い物にならない
  • 値が大きすぎると、輪郭補正の時に何も引っかからない

とりあえず考えられる対策としては、以下の通りです。

  • 輪郭面積が、画像サイズに対して99%以上だと無視
  • 輪郭面積が、画像サイズに対して1%以下だと無視
  • 上記に該当しない輪郭面積で、最大のものを使用

出力座標の値の根拠って何?

該当コードはこちら。

# 画像の座標上から4角を切り出す
pts1 = np.float32(best_approx)
pts2 = np.float32([[max_x, max_y], [max_x, 0], [0, 0], [0, max_y]])

どこのサンプルコードを見ても、max_xmax_yがベタ書きされてました。
出力する画像のサイズなので、適当に設定してればいいのかもしれないですが、「"適当"って何なんだ...」と感じてしまい:(

なので「元画像からトリミングした等倍のサイズを設定する」とします。

方法は簡単。
四角形の角それぞれの座標を使って、三平方の定理で算出します。
(こんなところで三平方の定理を使うと思ってなかったので、中学時代の旧友に会った感覚で懐かしかった)

# 
# とりあえず`best_approx`の中身の説明から。
# 
# @type
#   <class 'numpy.ndarray'>
# 
# @value(example)
#   [[[580 260]]  左下(x y)
#    [[452 141]]  左上(x y)
#    [[152 300]]  右上(x y)
#    [[230 467]]]  右下(x y)
# 

# 出力座標の計算(三平方の定理。詳しくは思い出すか調べてね。)
r_btm = best_approx[0][0]
r_top = best_approx[1][0]
l_top = best_approx[2][0]
l_btm = best_approx[3][0]
top_line   = (abs(r_top[0] - l_top[0]) ^ 2) + (abs(r_top[1] - l_top[1]) ^ 2)
btm_line   = (abs(r_btm[0] - l_btm[0]) ^ 2) + (abs(r_btm[1] - l_btm[1]) ^ 2)
left_line  = (abs(l_top[0] - l_btm[0]) ^ 2) + (abs(l_top[1] - l_btm[1]) ^ 2)
right_line = (abs(r_top[0] - r_btm[0]) ^ 2) + (abs(r_top[1] - r_btm[1]) ^ 2)
max_x = top_line  if top_line  > btm_line   else btm_line
max_y = left_line if left_line > right_line else right_line

そもそも四角形じゃない場合どうなるの?

対象コードはこちら。

tmp = cv2.approxPolyDP(cnt, epsilon, True)
if 4 == len(tmp):
  # 以下略

cv2.approxPolyDP(cnt, epsilon, True)で取れる値についてです。

これについては、輪郭それぞれの座標がNumpy配列で入ってます。
三角形なら3つ、四角形なら4つの座標が入ってます。
前章の「出力座標の値の根拠って何?」の例では、best_approxがこれに当たります。

やりたいのは台形補正で、台形は四角なので、3つ以下5つ以上は要りません。

さっきの「出力座標の値の根拠って何?」にも繋がりますが、

#仮に、取れた値が3(=三角形)だとして、

#三角形で切り出したのに、
pts1 = np.float32(approx)
#四角形に吐き出す
pts2 = np.float32([[max_x, max_y], [max_x, 0], [0, 0], [0, max_y]])

#という、訳分からない事が起きる

取りたい形に応じて、変化させていきましょう。

結果発表!!!!!(という名のオチ)

名刺

#参考にさせていただいた名刺画像は成功
$ python correctionKeystone.py meishi.jpeg 
Best parameter: white=180 (rate=13.771562500000002)

_corrected.meishi.jpeg

献血カード(白背景)

#撮影で影になったせいで、カードと背景が同化してしまい解析不能
$ python correctionKeystone.py kenketsu_card.jpg 
The analysis failed.

画像なし(解析不可能だったため)

献血カード(黒背景)

#ちゃんと取れたけど45度傾いた(台形補正はできたのでOK)
$ python correctionKeystone.py kenketsu_card_black.jpg 
Best parameter: white=110 (rate=31.378014081790123)

_corrected.kenketsu_card_black.jpg

献血ポイントカード(白背景)

#献血ちゃん...
$ python correctionKeystone.py kenketsu_point.jpg 
Best parameter: white=60 (rate=97.68636670524693)

_corrected.kenketsu_point.jpg

献血ポイントカード(黒背景)

#献血ちゃん.......
$ python correctionKeystone.py kenketsu_point_black.jpg 
Best parameter: white=90 (rate=26.30570023148148)

_corrected.kenketsu_point_black.jpg


OpenCV使った事たかったんですが、半日ほどやってみて、
失敗はしましたが、どうやって値を調査して検証して設定すればいいのかというのは見えてきたので、もう少し改良してみます。

台形補正自体は簡単で、問題は輪郭抽出だったから、輪郭抽出の精度を上げる必要があるね。
そのためには、画像の前処理するか、細かなパラメータ設定するか、他の手法を使うのか、、、

「こうやった方がいいよ!」とか「これはダメでしょ!」とかあれば、ぜひお声掛けくださいませ...

65
68
4

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
65
68