#背景
私は学校の学生研究で手書き文字認識をTesseractで行っているのですが、Tesseractはデフォルトで手書き文字には対応してません。
また、LSTMによる学習が可能との事でいろんなデータセットを使って学習データを作ろうとしているのですが、
Failed to load any specific lstm-dictionaries for lang XXX!
という警告に戸惑ってしまっています。経緯はこちらを見てもらうと分かると思います。
ocrd-train(Tesseract)の学習で辞書が見つからない(Failed to load any lstm-specific dictionaries for lang XXX!!)
要約すると、
1、kmnistのデータセットを作る(成功)
2、ocrd-trainによって学習データを作成する(成功)
3、学習データは出来たんだけど、変な警告が出る。(失敗?)
4、警告は消せたけど、正しいか分からない。。。(成功?)
てな感じです。
いろいろ調べました。そして自分なりに分かったのですが、なにせ技術系の記事に慣れていないのとwikiが英語なので正しく理解できているかすごく怪しいです。
よって、これは自分用のメモなので、この記事を参考にして学習を行い精度に影響が出てしまっても責任は取れません。
ふんわり「こんな感じなのね」と読んでいただけるとありがたいです。
また、Tesseractに詳しくて、間違い等に気づいた方がいらっしゃったらご教授くださると本当にありがたいです。
#環境
この記事を書いている時点(12月22日)ではtesseract 4.1.1-rc2を使用しています。
また、Ubuntu18.04を前提としています。
#はじめに
Tesseractでは現在、2つの方法により単語(各文字?)判定を行っています。
・パターン認識の手法(Tesseract4.0.0以前)
・LSTMの学習による手法(Tesseract4.0.0以降)
このどちらにおいても辞書を使っているのですが、双方辞書を使うタイミングが異なっています。
なので、ここでは2つとも説明したいと思います。
#結論
結構記事が長くなりそうなので、先に現時点での私の中の結論(正しい保証は無い)
・パターン認識の手法
辞書無しでの単語の認識はとても難しい、というか、辞書がパターン認識の要になっている。
・LSTMの学習による手法
おそらく無くても大丈夫、あまり影響しない。
それでは、上記の2つについて説明していきたいと思います。
#パターン認識の手法
まず、パターン認識と言っても具体的でないので、Tesseractの開発者の一人であるRay Smith氏の論文を参考にして説明していきます。(私は英語が得意ではないので間違った解釈をしているかもしれません)
参考:Adapting the Tesseract Open Source OCR Engine for Multilingual OCR
##パターン認識の原理
正直何言ってるかよく分からないですが、2章でPage Layout Analysisに該当する文が恐らくここだと思います。
黒背景に白のテキストにする?って事だから画像をある閾値で2値化しているって事で良さそうです。
そして矢印のComponent Outlines In Text Regionsは、connected component(CCと呼ぶ、繋がっている領域を一つとするという事?)とoperating on outlines of the components(白黒画像の輪郭をいい感じに操作するという事?)を示しています。
###Blob Finding
読んだ所
A blob is a putative classifiable unit, which may be one or more horizontally overlapping CCs, and their inner nested outlines or holes. A problem is detecting inverse text inside a box vs. the holes inside a character. For English, there are very few characters (maybe © and ®) that have more than 2 levels of outline, and it is very rare to have more than 2 holes, so any blob that breaks these rules is "clearly" a box containing inverse characters, or even the inside or outside of a frame around black-on-white characters.
CC(connected component)により繋がっている領域を一つとして、それに対しブロブを検出するって事ですね。
黒背景に白い文字なので、点とか丸で囲まれた所が検出されます。英語に限って言えば、ブロブが2つ以上ある文字はめったに無いので、ブロブが2個以上検出された文字領域では文字ががぶってしまっている可能性が高いって事らしいです。
そうして、1文字ずつのBOXを決定します。(矢印のCharacter Outlines in Text regionsとはこの事ですね)
###Find Text Lines And Words
まず、Find Text Linesから、
読んだ所
After deciding which outlines make up blobs, the text line finder [11] detects (horizontal only) text lines by virtue of the vertical overlap of adjacent characters on a text line. For English the overlap and baseline are so well behaved that they can be used to detect skew very precisely to a very large angle.
ここでは水平方向のみを前提としています(英語が最初なので当たり前ですね)。Blob Findingで検出された文字領域(1文字ずつ)の被りとか隣接具合で1行を判定しているって事ですかね。
次に、Find Words、
読んだ所
After finding the text lines, a fixed-pitch detector checks for fixed pitch character layout, and runs one of two different word segmentation algorithms according to the fixed pitch decision.
なんか2つの方法で1つの文字に固定ピッチを割り当てて、そのピッチの間隔とかで文字のまとまりごとに"1つの単語”としているのですね。(多分)
矢印のCharacter Outlines Orgnized Into Wordsは各文字の輪郭から単語ごとにまとめた領域にしたよって事を表しているっぽいですね。
###Recgnize Word (Pass 1 & Pass 2)
これについてはもう一枚図の説明付きで記載がありました。それがこれです。
##パターン認識の辞書の影響
原理で述べた通り、パターン認識は辞書に頼って単語の各文字の決定を行っています。すごく大きな決定要因じゃないですかね。もし辞書がなかったらいくつもある単語領域の各文字の候補から選ぶのがとても困難になると思います。
なので、パターン認識において辞書はとても重要!と言えます。
※2019年12月25日時点での追記
どうやらTesseract3.x時点での辞書は必須だったみたいです。
#LSTMの学習による認識
LSTMで認識すると言っても、どの段階で使うかを説明しておかないといけませんね。(まさか入力画像をそのまま、、、とかじゃないです)
※2020年2月27日追記
LSTMモデルの詳細について調査しました。以下の記事を読んでいただけるとより深く理解できると思います。
Tesseractの原理のあれこれその2 〜VGSL編〜
##LSTMによる認識の処理の流れ
これは文献での説明が見つけられなかったのですが、先程ちょっと出したRay Smith氏のプレゼン資料をお借りします。
参考:2ArchitectureAndDataStructures.pdf
これを見ると、どうやらRecognize Wordの前までは同じステップを踏むみたいですね。
って事は、LSTMに与えるのは”単語ごと”の領域ですね。そしてLSTMの出力は単語らしいです。
ちょっとまって!!辞書はどこで使うの??
安心して下さい、ちゃんと使ってます。別の資料を見てみると、
参考:6ModernizationEfforts.pdf
この画像は下から上へと処理を表しています。まず、単語ごとの画像をLSTMにより1文字単位で文字を検出します。
そして、検出した文字をTesseract language model(多分辞書の事)を参考にして正しい単語に修正する。
という流れかと思います(画像しかヒントを見つけられなかったので完全に私の予想です)
因みに、この単語の修正ですが、検出が
--EE----n-----c----yy----l----o---p---e----d---i---a- ----G----a----l--a-----c----t---i----c----a--
なんですが、恐らく'-'は文字の間隔を表していて、その間隔具合と辞書を考慮して修正しているんだと思います。
##LSTMの学習による辞書の影響
これははっきり言及している文献が見つからないのですが、調べていく中でのQ&Aでなんとなく分かってきました。
参考:Failed to load any lstm-specific dictionaries for lang xxxでのwrnz氏の発言(on 9 Dec 2018)
Of course, the recognition is heavily influenced by the existence (or non-existence) of dictionaries. Is this influence necessarily positive? I do not think so. Using dictionaries as hypotheses in text recognition bears the risk of introducing false positives (e.g. the German city Rust might be returned as the noun Rost if it is not in the dictionary). However, they were very important for the old, character-focused recognizer (tesseract version < 4) since they provided the necessary context for the single characters. With the line-focussed (lstm) approach, context information is implicitly provided by the model. Btw., I am not aware of any systematic evaluation of dictionary usage in OCR.
バージョン4以前では辞書の存在が欠かせなかったのに対して、lstmによるアプローチでは文脈の情報は暗黙的にモデルに与えられている。との内容がコメントされています。つまり、lstmで学習すれば、モデルに単語領域内での文脈的な特徴を判定する機能が含まれているので、辞書の重要性はそんなに高くないのかなって思います。
#前回の解決策(仮)は大丈夫なのか?(これ)
LSTMによる学習がどう行われているかまだ完全に分かっていないのですが、私が考えるには、LSTMの学習時に辞書を使うことは無いと思います。(何度も言いますが、現時点で調べた段階での話です。調査中です)すると、処理の流れは以下の2段階に分けられると思います。
①1文字ごとの検出(LSTMによる判別)
②文字(単語内)の組み合わせ等の修正(辞書による修正)
もし仮にに学習が完璧にできていれば、上の処理でいう①だけでも良いと言えます。
話を戻します。
解決策(仮)は前回の記事を見てもらうとして、その記事を書く原因となったkmnistを使ってTesseractにLSTMの再学習するではどのようにLSTMを学習させていたかですが、学習対象のデータセットはランダムな文字の羅列です。つまり、1文字ごとにそれがなんの文字であるかを学習させたわけですね。
そして、使っている辞書はjpn_best.lstm-***-dawgです。Tesseractが用意している標準の日本語の辞書です。
別に問題ないんじゃないかなと思いますね。LSTMでの辞書の役割って文字が決定されたあとの単語の修正なので、決定するためのモデルの内容がちょっと変わっただけなんで、辞書は言語ごと(日本語とか英語ごと)に同じ物を使用すべきだと思います。
#まとめ
一応前回の記事にはっきり答えると、「解決策(仮)」は正しい!
以上が現時点(2019年12月22日)で急いで調べた事柄です。
何度も言いますが、これが本当に正しいかどうかは断定できません。私の稚拙な英語力と、技術に関する知識で記事を書いています。
もじ確実な情報が必要な場合はこの記事を信用せず、参考文献等をご自身で読んで確かめて下さい。
なにせ調べた事柄が多いのと、いろんな参考文献を見ているので”あくまで自分のために”体系的にまとまった記事を書きたかっただけです。
今後はこの記事に修正が入るかもしれないです(なんなら消すかもしれないです)。
しかし、Tesseractに詳しい方でもし間違いに気づいた方がいらっしゃったらご教授くださると本当にありがたいです。
それでは、お疲れ様でした。読んでくれてありがとうございます。