1. はじめに
PyOCRを利用した文字認識に挑戦中のメモ書きです。
こういった場での公開は初めてなので、至らない点もあるかと思いますがよろしくお願いします。
好きなゲームの布教・翻訳を目的に作り始めたのでこんな記事タイトルをしてますが、記事の文字起こしや動画の字幕など何にでも使えると思います。
読み上げソフトに打ち込む際にちょっとだけ便利かもしれません。
2. ざっくりフロー
左上隅の座標を取得します
658,502
右下隅の座標を取得します
1196,602
【原文】
------------------------------------
いつ頃からか出来上がった召喚という技術は、
様々な世界から技術、 人、 物を運んできたが、
この画期的な技術に少々浮かれすぎた人々は、
用もないのに多くの者を呼びすぎた。
4.指定範囲の画像認識~テキスト出力の動作を3秒周期で繰り返す(リアルタイム要素)
【ポイント】
★ページ送りして読み進めながらでも、すぐさま次のテキストを文字認識して出力してくれます。
3. PyOCR、PyAutoGui、OpenCVをそれぞれ導入
-
PyOCRの導入 [【PyOCR】画像から日本語の文字データを抽出する] (https://qiita.com/mczkzk/items/393abc70836b9bde2f60)
こちらを参考に。大変勉強になりました。この場を借りて感謝を。 -
PyAutoGuiの導入
以下のコマンドを実行します。```
pip install pyautogui
* OpenCVの導入
以下のコマンドを実行します。```
pip install opencv-python
4. ソースコード
import sys
import os
import pyocr
import pyocr.builders
import pyautogui
import cv2
from PIL import Image
from time import sleep
TESSERACT_PATH = 'C:\Program Files (x86)\Tesseract-OCR'
TESSDATA_PATH = 'C:\Program Files (x86)\Tesseract-OCR\\tessdata'
os.environ["PATH"] += os.pathsep + TESSERACT_PATH
os.environ["TESSDATA_PREFIX"] = TESSDATA_PATH
tools = pyocr.get_available_tools()
if len(tools) == 0:
print("No OCR tool found")
sys.exit(1)
# The tools are returned in the recommended order of usage
tool = tools[0]
print("Will use tool '%s'" % (tool.get_name()))
# Ex: Will use tool 'libtesseract'
langs = tool.get_available_languages()
print("Available languages: %s" % ", ".join(langs))
lang = langs[0]
print("Will use lang '%s'" % (lang))
# Ex: Will use lang 'fra'
# Note that languages are NOT sorted in any way. Please refer
# to the system locale settings for the default language
# to use.
# ↑PyOCR使う時の呪文、おまじない。
# 範囲指定のためのマウスカーソル座標取得関数。メッセージボックスの左上隅と右下隅で囲まれた範囲をスクリーンショット
def PosGet():
# クリックを検知したらそこの座標を取得 ←なんか難しいからやめました
# 3秒待ってからカーソル位置の座標を取得
print("左上隅の座標を取得します")
sleep(3)
x1, y1 = pyautogui.position()
print(str(x1) + "," + str(y1))
# 3秒待ってからカーソル位置の座標を取得
print("右下隅の座標を取得します")
sleep(3)
x2, y2 = pyautogui.position()
print(str(x2) + "," + str(y2))
# PyAutoGuiのregionの仕様のため、相対座標を求める
x2 -= x1
y2 -= y1
return(x1, y1, x2, y2)
# スクリーンショット撮影 → グレースケール → 画像を拡大
def ScreenShot(x1, y1, x2, y2):
sc = pyautogui.screenshot(region=(x1, y1, x2, y2)) # PosGet関数で取得した座標を使用
sc.save('TransActor.jpg')
# あとは画像拡大してみましょうか グレースケールも有効? OpenCVにも頼ってみよう
img = cv2.imread('TransActor.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
tmp = cv2.resize(gray, (gray.shape[1]*2, gray.shape[0]*2), interpolation=cv2.INTER_LINEAR)
cv2.imwrite('TransActor.jpg', tmp)
# Image.openメソッドで画像が開かれる。PyOCRで文字認識、文字起こし
# 関数名は翻訳実装の名残
def TranslationActors():
txt = tool.image_to_string(
Image.open('TransActor.jpg'),
lang="jpn",
builder=pyocr.builders.TextBuilder(tesseract_layout=6)
) # 英文を読み取る時はlang="eng"
print("【原文】\n------------------------------------")
print(txt)
'''
ここまでが文字認識→出力のゾーン
'''
# 読み取る範囲を決める
x1, y1, x2, y2 = PosGet()
while True:
ScreenShot(x1, y1, x2, y2)
TranslationActors()
sleep(3) # 3秒ごとに繰り返す
5. 改善点
- 原文を出力した後に英語への翻訳機能。そのままグーグル翻訳に投げつけると通信が多すぎて怒られてしまうので現在模索中です。
- メッセージボックスの配置が変わった場合とっても気まずいです。めげずに範囲を再度指定してます。
- 出力テキストを見比べて、全く同様の内容なら破棄する。
- リアルタイム(?)
次回予告!
出力したテキストを翻訳!(Pythonパッケージのgoogletransが便利でした)
GUI化!(TKinterと戦ってるけど今のところ1ミリもわかりません)
リンク
-
はむすたブログ様
記事内で紹介したフリーゲーム「ざくざくアクターズ」のDLはこちらから