LoginSignup
215
189

More than 3 years have passed since last update.

【コード検証中】【精度対決】リアルな画像で異常検知

Last updated at Posted at 2019-09-02

前回の記事では、SSIMオートエンコーダによる異常検知を紹介しました。

是非とも「metric learningによる異常検知」と比較したいと思い、調べていたところ、
SSIMの精度が出ている論文を見つけました。

そこで、本稿では以下のことを行います。

  • まずは、論文の中身を紹介します。
  • 論文中のSSIMの精度と「metric learningによる異常検知」の精度を比較します。

※こちらはPythonデータ分析勉強会#11の発表資料です。
※全体のコードはこちらに置いています。

結論から

論文のデータセットを使って実験したところ、「論文に出てくる全ての異常検知手法
(SSIMオートエンコーダを含む)に対し、metric learningによる異常検知の方が
良いスコアを出しました。

論文の中身

※本稿の図は、基本的に論文(MVTec AD — A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection)より引用しています。

まずは、論文の中身をざっとご紹介します。

  • 異常検知のデータセットを提供する論文です。CVPR2019で公開されました。
  • データセットは実際のテクスチャーや物体を写したもので、正常な写真と異常な写真が添付されています。
  • 各種異常検知手法のベンチマークも同時に行い、精度と可視化について定量的に評価しています。
  • データはこちらよりダウンロードできます。(何故かPythonのAPIを叩かないとダウンロードできませんでした。)
  • データセットの数は以下のとおりです。

image.png
1クラスの学習データは大体200個を超えています。
テストデータの数は異常>正常となっており、かなり不均衡です。

ちなみに、Cable,Capsule,Leather,Carpetのテストデータは以下のとおりです。

image.png

ケーブルが無かったり、銅線が無かったり、欠け、印字ミス、傷、打痕、染みなど
多種多様な欠陥があります。

解像度は700 x 700 ~ 1024 x 1024と幅があるようです。

論文に登場する異常検知手法たち

一応、論文中に出てくる異常検知手法たちを紹介します。
結論からいって、論文ではオートエンコーダ($l2$、SSIM)が良いスコアを示しました。

  • オートエンコーダ($l2$)、オートエンコーダ(SSIM)
    この手法は前回の記事を参考にしてください。

  • AnoGAN
    この手法はこちらに詳しく載っています。

  • CNN Feature Dictionary
    ImageNetで学習させたモデルを使って、GlobalAgeragePoolingの出力をPCAで次元圧縮する
    手法のようです。最終的にはk-means法を使うようです。metric learningに似ていますが、
    スコアはイマイチです。

  • GMM-Based Texture Inspection Model

  • Variation Model

一応、精度を載せておきます。

image.png

上段はTrue positive rate(再現率)、下段はTrue negative rate(特異度)を示しています。
論文では、AUCではなく、この二つの和が一番大きいものを良い異常検知手法としています。

実験条件

SSIMとmetric learningによる異常検知の性能を比較するために
実験を行います。

※全体のコードはこちらに置いています。Colabで動くはずです。

  • MVTEC-ADから難しそうなデータを4つ選定しました。
  • 今回は精度のみを比較します。可視化の比較は行いません。
  • 選んだデータの数は以下のとおりです。
画像の種類 学習データの数 テストデータ(正常)の数 テストデータ(異常)の数
Cable 224 58 92
Leather 245 32 92
Carpet 280 28 89
Capsule 219 23 109

SSIMオートエンコーダ(論文より引用)

  • SSIMを適用する窓のサイズは11 x 11
  • オートエンコーダの入力画像サイズは256 x 256
  • 潜在変数は100
  • 学習データはDataAugmentationにより10,000個に増幅

metric learning

  • 学習データは上記4種類のデータ全てを渡しました。つまり、968個のデータです。
  • 入力画像サイズは224 x 224
  • 今回使うmetric learningはL2 SoftmaxLoss
  • epochは50、最適化手法はSGD
  • バッチサイズは128
  • ベースモデルはMobileNet V2($\alpha=0.5$)(学習済モデルを使用、つまり転移学習)
  • 異常スコアはLOFで算出
  • 10回試行して、それぞれの試行で再現率と特異度の和が高いものを採用

アンサンブル異常検知

metric learningについて、更なる高精度を目指してアンサンブル学習を行います。

アンサンブル学習といっても、やることは単純で、複数のモデルを用意して異常スコアの
平均値をとるだけです。今回は同一構造のモデルを3つ用意し、全く同じデータで学習
させました。

異常検知のアンサンブルは、必ずしも精度向上につながるわけではありません。
ここが教師あり学習と違うところです。精度が上がったら、めっけもんです。

実験結果

Cable

論文では、ケーブルで一番スコアが出たのはSSIMでした。
image.png

下の図(自作)は「再現率と特異度の和」と「AUC」を示しています。

image.png

左図のように、metric learningのスコアがSSIMを大きく上回っています。
また、右図からも分かるとおり、単一のモデルよりアンサンブル学習の方が
スコアが上がります。

異常スコアと画像の特徴を見てみます。

異常スコアが大きいと、正常からかけ離れたものを意味します。
まずは、異常スコアが大きい異常サンプルです。

high__.png

ご覧のようにケーブルがないものやリード線が折れ曲がっているものがあり、
とても分かりやすい異常サンプルです。

続いて、異常スコアが小さい異常サンプルです。

low__.png

リード線がないものや外のケーブルが割れているものがあります。
直観的にケーブルの割れは分かりやすい気がしますが、異常度が小さいと
判断されています。

Leather

論文では、革で一番スコアが出たのはCNN Feature Dictionaryでした。
image.png

下の図(自作)は「再現率と特異度の和」と「AUC」を示しています。

image.png

ケーブルと同じような結果になっています。
metric learningの方が、そして、アンサンブル学習の方がより良いスコアが出ています。

異常スコアと画像の特徴を見てみます。
まずは、異常スコアが大きい異常サンプルです。

high___.png

打痕が大きいものが多く、とても分かりやすい異常サンプルです。
異常スコアが大きいのも頷けます。

続いて、異常スコアが小さい異常サンプルです。

low___.png

小さな傷があるものが多い印象で、分かりにくい異常サンプルです。

Carpet

論文では、カーペットで一番スコアが出たのはSSIMでした。
image.png

下の図(自作)は「再現率と特異度の和」と「AUC」を示しています。

image.png

左図より、L2-SoftmaxLossの中央値はSSIMを上回ることが分かりました。
単一のモデルとアンサンブル学習の比較では、ほぼ同じスコアが出ています。

異常スコアと画像の特徴を見てみます。
まずは、異常スコアが大きい異常サンプルです。

high_.png

変色や大きな傷、糸のほつれなどが目立ちます。
かなり分かりやすいサンプルと言えそうです。

続いて、異常スコアが小さい異常サンプルです。

low_.png

変色しているものや染みがあるのは分かりますが、異常部分がどこなのか
見つけられないものもあります。これはかなり難しいサンプルと言えそうです。

Capsule

論文では、カプセルで一番スコアが出たのはL2でした。
image.png

下の図(自作)は「再現率と特異度の和」と「AUC」を示しています。

image.png

左図より、L2-SoftmaxLossの中央値はSSIMを上回っていることが分かります。
一方、このサンプルだけは、単一モデルの方がアンサンブル学習よりも優れていました。

結果的に、metric learningでは、カプセルのスコアが伸び悩みました。
ただ、次回紹介する黒魔術を使えば劇的にスコアを上げることができます。
具体的にはAUCで0.9を超える結果が出ています。

異常スコアと画像の特徴を見てみます。
まずは、異常スコアが大きい異常サンプルです。

high.png

変形したものや印字ミス、欠損などが目立ちます。
とても分かりやすい異常サンプルです。

続いて、異常スコアが小さい異常サンプルです。

low.png

パッ見て分かるのは印字ミスくらいで、それも僅かな異常と言えそうです。
その他のサンプルは、異常部分を見つけることが難しそうです。

考察

なぜ、「SSIMオートエンコーダ」より「metric learning」の方が良いスコアを出したのか
考察してみます。

  • ハイパーパラメータの調整
    正直、論文ではハイパーパラメータの調整は行われていないと思います。従って、SSIMではもっと精度が出るはずです。ただ、「metric learningのLeatherのスコア」に迫れるかといわれると疑問が残るところです。

  • カラー対応
    SSIMは基本的にグレースケールの画像にしか対応できません。従って、この論文でもカラー画像をグレースケール画像に変換してベンチマークを行っています。そのためカラーの情報が欠如しており、精度が上がりにくいと思われます。metric learningはカラー画像に対応しています。

  • 教師無し学習
    SSIMは純粋な教師無し学習です。しかし、metric learningは半教師あり学習に分類されるらしいです。つまり、SSIMは約200枚の正常画像を見て正常な範囲を決めていますが、metric learningは正常画像とは関係ない画像(本稿では、700枚)を見て正常な範囲を決めることができます。これは大きな差になると思われます。

  • 転移学習
    SSIMでは転移学習は使えませんが、metric learningでは転移学習が使えます。転移学習はディープラーニングを適用する上で、かなり有利に働きます。精度アップはもちろんのこと、学習時間も速くなるので、運用上のメリットも生まれます。

metric learning 精度アップのコツ

  • エポックはあまり大きくしない方が良いです。大きくすると、学習済の重みが壊れてしまうので精度が下がります。
  • 最適化手法はAdamよりSGDの方が良いようです。Adamにすると、やはり学習済の重みが壊れてしまうと思われます。
  • 参照データは多過ぎると良くないようです。最初、cifar-10のデータ2000個を混ぜて学習させましたが、精度が下がりました。
  • ベースモデルをInceptionResNetV2へ変えたところ、精度が下がりました。
  • DataAugmentationは精度アップにつながりませんでした。元々、metric learningは過学習しにくいと言われており学習データが1クラス当たり200個あれば十分なのでしょう。
  • 学習データ数が少数の場合、ArcFaceが良いという報告もあり、L2SoftmaxLossよりArcFaceの方が良いスコアが出るのかもしれません。
  • 黒魔術を使う(次回記事参照)

まとめ

  • MVTEC-ADはかなり難しいデータセット。異常検知分野の「ImageNet」になり得るかもしれない。
  • metric learningは、論文中のどの異常検知手法よりも良いスコアを出した。アンサンブル学習もやってみる価値はある。
  • しかも、ベースモデルをMobileNetにできる上、デコーダー部がないので、オートエンコーダよりも高速化することが可能。
  • metric learningは異常部分の可視化が弱いのが難点。誰か画期的なアイデアを出してください。

次回は、異常検知性能を劇的に向上させる黒魔術を紹介します。

215
189
10

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
215
189