LoginSignup
44
30

More than 5 years have passed since last update.

ColaboratoryでTesseract-OCRを動かしてみる

Posted at

今回はGoogleが機械学習の学習や研究用に提供をしているColaboratoryを扱ってみます。

これまでのブログは、Jupyter Notebookで、ローカル環境のブラウザで、プログラムの動作確認をしていました。

ColaboratoryはGoogleのアカウントがあれば、ソフトウェアインストールなしで、Jupyter Notebookと同等な環境を使用できるので、非常に便利です。

Colaboratoryを使ってみる。

Googleアカウントでログインした状態で、Colaboratoryにアクセスしてみます。
ファイルメニューから「Python3のノートブックを新規作成」を選ぶと以下のような編集画面になります。
Jupyter Notebookと画面も操作性もほぼ同じです。

shot00.png

ノートでの解析処理は、ハードウェアアクセラレーターを使用することも可能です。
ランタイムメニューの「ランタイムタイプを変更」の項目で設定できます。

shot01.png

Unixコマンドの実行も、Jupyter Notebookと同じく、「!」を先頭につければ実行可能ですね。

shot02.png

Tesseract-OCRを動かしてみる。

ただ、漠然とColaboratoryを使うのも面白みがないので、今回はOCRエンジンのTesseract-OCRを環境に乗せて、動かしてみます。
ちなみに、Tesseract-OCRについて簡単に紹介すると、以下のようなライブラリです。

  • オープンソースのOCRライブラリ(Apache License v2.0)
  • コアはC / C++ベース。
  • HP社が1985〜1995年にかけて開発していたエンジン。
    その後、HP社がOCR事業から撤退で10年近く放置。
    2006年にGoogleがバグ修正をして、オープンソース化。

  • 歴史があり鍛えられたライブラリ。現在も更新中。

  • 各種プログラム言語のラッパーあり
     (Java/Swift/Python/Shellスクリプト etc.)

Tesseract-OCRは、デフォルトでは日本語に対応していませんので、
今回は日本語のトレーニングデータも組み込んでみます。

また、今回はTesseract-OCRのPythonラッパーの「pyocr」も導入します。
実際にColaboratoryにコードを記述していきます。
まずは、必要なライブラリをインストールします。


#Tesseract OCRの関連ライブラリーとPythonラッパーをインストール
!apt install tesseract-ocr
!apt install libtesseract-dev
!pip install pyocr

次に、日本語トレーニングデータをダウンロードし、インストールディレクトリにコピーします。


 #日本語トレーニングデータのダウンロードとインストール
!curl -L https://github.com/tesseract-ocr/tessdata/raw/master/jpn.traineddata > jpn.traineddata
!cp jpn.traineddata /usr/share/tesseract-ocr/tessdata

必要なPythonモジュールをインポートします。


#モジュールをインポート
from PIL import Image
import sys
import pyocr
import pyocr.builders

OCRが使用可能かをチェックして、そのツール名を表示します。


#OCRが使用可能かをチェック
tools = pyocr.get_available_tools()
if len(tools) == 0:
    print("OCR tool is not found")
    sys.exit(1)

#OCRツール名を表示
tool = tools[0]
print("OCR tool is '%s'" % (tool.get_name()))

ライブラリのインストール、モジュールのインポートが成功していれば、
「OCR tool is 'Tesseract (sh)'」と表示されます。

次に、OCRの対応言語を確認します。


#OCR対応言語を表示
langs = tool.get_available_languages()
print("Available languages: %s" % ", ".join(langs))
lang = langs[0]
print("Will use lang '%s'" % (lang))

以下のように出力されます。
Available languages: equ, osd, eng, jpn
Will use lang 'equ'

英語が「eng」, 日本語が「jpn」で入っていればOKです。
ちなみに「equ」は数式のデータ、「osd」は縦書き文字などの読み取り用のデータになります。

次に、OCRの対象の画像ファイルを読み込むコードを記載します。

#OCRを行う画像を読み込み
from google.colab import files
f = files.upload()
#読み込んだ画像のファイル名
filename = list(f)[0]

google.colabは、Colaboratory専用のモジュールです。
実行すると、以下のようなファイル選択ボタンが表示され、待ち状態になります。
shot03.png

今回は、Wikiの英語サイトから木星「Jupiter」の説明文を抜粋して読み取ってみます。
読み込んだ画像を表示します。

#読み込んだ画像を表示してみる
 %matplotlib inline
import cv2
import matplotlib.pyplot as plt
from pylab import rcParams

img = cv2.imread(filename)
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
plt.figure(figsize=(15,15))
plt.axis("off")
plt.imshow(img)

以下のような説明文画像を扱います。

jupiter_eng.png

言語指定を英語「eng」で指定して、以下のpyocrで返されたtoolでOCRを実行してみます。


 #読み込んだ画像をOCRでテキスト抽出してみる。
txt = tool.image_to_string(
    Image.open(filename),
    lang="eng",
    builder=pyocr.builders.TextBuilder(tesseract_layout=6)
)
print( txt )

Colaboratoryでの出力結果は以下のように表示されます。

shot04.png

脚注用[15]の文字が一部文字化けしていますが、非常に精度が高く読み込めています。

日本語の読み取りも試してみます。日本語Wikiの木星のページから抜粋します。

jupiter_jpn3.png

OCRの読み取りは、言語を日本語指定する必要があります。
「lang="jpn"」で実行します。


 #読み込んだ画像をOCRでテキスト抽出してみる。
txt = tool.image_to_string(
    Image.open(filename),
    lang="jpn",
    builder=pyocr.builders.TextBuilder(tesseract_layout=6)
)
print( txt )

日本語の場合も大体読み込めてはいますが、ひらがなの「あ」が小文字になったり、
脚注のカッコ文字が全般的に文字化けしています。
精度的には英語よりは下回る結果になりました。

shot05.png

Tesseract-OCR自体は、フォントなども学習に反映させることで認識精度の向上も可能です。

最後に

今回は、Tesseract-OCRを使用するために、ライブラリーのインポートや
日本語辞書のインストールも必要でしたが、Colaboratoryでの
動作確認でしたので、ローカルマシーンを汚さないのも嬉しいところです。
機械学習などのプログラム動作を検証したいときに、Googleアカウントがあれば
一時的に動作環境を作って簡単に実験できるため、今後も手放せないツールになりそうです。

今回はここまで。

44
30
2

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
44
30