Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
Help us understand the problem. What is going on with this article?

Amazon Lookout for Visionで行う「機械学習による欠陥品検出」、活用のTips

みなさん、機械学習(以下、MLにします)してますか?

MLを取り巻く環境は、特に今年(2020年)で劇的に進化していると感じています。
とくに「振り分け済みの画像(やデータ)を用意すればいいんだよ」というタイプの、自動化されたML "AutoML" が発展してきており、アルゴリズムやパラメータ調整を知らなくてもMLの恩恵を受けられるようになりました。

ここで紹介する Amazon Lookout for Vision は、AWSの大型カンファレンス「AWS re:Invent 2020」で発表された AutoML 型の ML サービスで、画像による欠陥品検出(異常検知)を行ってくれます。
特筆すべきポイントは、最低20枚の正常と最低10枚の異常、計30枚あれば学習と推論が行えるようになっています。実際、ここで紹介するのも正常=30枚、異常=42枚でうまく動きました。

詳細はクラスメソッドさんのブログに数多く掲載されていますし、Amazon Lookout for Vision を使ってみた という記事も存在するので、私からは Amazon Lookout for Vision を使う際のTipsを紹介します。

注意※ 2020年12月時点ではプレビューサービスであるため、GAとなった時には無効になるTipsもあると思います。是非お試しください。

Amazon Lookout for Vision ができる事、対象外な事

Amazon Lookout for Vision は「正常・異常の分類」(いわゆるバイナリ分類)を行ってくれます。3種類以上の分類をしたければ Amazon SageMaker 等を使いましょう。

また、画像の前処理はAmazon Lookout for Visionのスコープ外です。
たとえば対象物を中心に持ってきたり、背景を均一化したり、サイズを調整したり、明るさや色味の調整をしたりといった事は、Amazon Lookout for Visionに学習/推論の前に終わらせる必要があります。

ML で使うデータの準備

データを準備しましょうといっても、中々準備できるものではないので今回は「PhotoshopとImageMagickで画像を生成」するという手法でデータを作りました。このまま Amazon Lookout for Vision でお使いいただけます。

データのシナリオは「ボタンに貼るラベルの品質チェック」です。ちゃんと貼れていれば正常、ずれていたら異常という判定になります。

画像ファイルはこちら(ZIP/24MB)です。ライセンスはCC BY-NC-ND 4.0です。
フォルダ構成は以下の通りです。

  • for_train が、学習用データセット
  • for_test が、テスト用データセット
  • for_eval が実際に試験する用のデータ

image.png

for_train/normal/ の中身の様子です。

Amazon Lookout for VisionをRaspberry Pi から使う

Amazon Lookout for Visionを手軽に外部システムから使う方法はAWS CLIです。
そこで Raspberry Pi に AWS CLI を入れ、USBカメラを取り付ければクラウドを使った推論マシンの出来上がりです。

物理はこんな感じ。
image.png

AWS_CLI等のインストール
$ sudo pip3 install awscli
$ sudo apt install fswebcam
fswebcamとAWSCLI経由の推論
$ fswebcam -d /dev/video0 -S 60 -r 1280x720 --no-banner image.jpg
$ aws lookoutvision detect-anomalies --project-name labeling_anomaly_detect --model-version 1 --content-type=image/jpeg --body image.jpg

fswebcam のオプションについては fswebcamでピントを合わせる&ぶれない画像を撮影する方法 をご覧ください。

実際に使った画像は左から image1.jpg, image2.jpg, image3.jpg です。
image.png

結果はJSONで得られます。

// image1.jpg
{
    "DetectAnomalyResult": {
        "Source": {
            "Type": "direct"
        },
        "IsAnomalous": false,
        "Confidence": 0.6450086236000061
    }
}

// image2.jpg
{
    "DetectAnomalyResult": {
        "Source": {
            "Type": "direct"
        },
        "IsAnomalous": false,
        "Confidence": 0.3430061340332031
    }
}

// image3.jpg
{
    "DetectAnomalyResult": {
        "Source": {
            "Type": "direct"
        },
        "IsAnomalous": true,
        "Confidence": 0.524972677230835
    }
}

IsAnomalous が推論結果、 Confidence が信頼度(%)となります。信頼度は低いようですが IsAnomalous が期待通り返ってきているので、使えるのではないでしょうか。

Tips 1: 推論可能な画像ファイルの解像度は、学習時の解像度と合わせる必要あり

もし学習時に 1280x720 の画像を利用したら、detect-anomalies でも 1280x720 の画像を使用する必要があります。異なる解像度だと detect-anomalies の際に
Image failed to pass validation. というエラーが返ってくるので、その時は解像度を確認してください。

※これはかなりハマった

Tips 2: テスト用データセットも使用すると、思ったような結果を返してくれそう

Amazon Lookout for Visionは学習時にテスト用のデータセット(正常10枚以上、異常10以上、計20枚)が指定できますが、これをセットすると精度がかなり上がりました。
MLにあまり詳しくないので理由がわからずじまいで申し訳ないのですが、結果の共有です。

具体的にはデータセット作成時に、テスト用のデータセットを指定します。先のZIPファイルであれば for_test を指定する形です。

何度か試したところ、画像をすべて学習用に振り分けるくらいなら、そこからテスト用データセットに切り出した方が思い通りの結果が出てきました。

Tips 3: 料金の見積もり

料金は従量課金です。学習は50枚程度の画像で1回あたり40~50分、検証は1回あたり15分くらいかかります。検証にも推論の従量課金が適用されます。
トータルで1回あたり3~4USD(オレゴンリージョン)くらいで、これ以外にAmazon S3の分が入ります。(微々たるものですが)

注意する点は、推論を継続的に行う場合(= detect-anomalies による推論)は、推論を行うインスタンスを立ち上げておく必要があり、そこは時間課金です(推論回数での課金ではありません)

実際4回ほどオレゴンリージョンで試した結果は 14.30 USDでした。内訳は以下の通りです。

Amazon Lookout for Vision Inference: $4.37
  > $4.0 per hours for Inference:Inference in US West (Oregon)65.576 minutes  $4.37
Amazon Lookout for Vision Training: $9.93
  > $2.0 per hours for Training:Training in US West (Oregon)298.000 minutes  $9.93

おわりに

概ね2時間程度あれば試すことができます。冬休みの余暇にいかがでしょうか?

あと注意(二回目)ですが、2020年12月時点ではプレビューサービスであるため、GAとなった時には無効になるTipsもあると思います。AWSさんは日々アップデートがされているので、ぜひ皆さんの目で確かめてください。

MLのデータを準備するところは 無ければ作ればいいじゃない!ImageMagick(と、ほんの少しのPhotoshop)で作る「機械学習用の画像 といった技がありますので、そちらも確認してみてくださいね。

EoT

ma2shita
(松下 享平) IoT通信プラットフォーム「ソラコム」のエバンジェリストで年間140回以上の講演を通じ #IoT の事例や技術情報を日々紹介。LPWAの選び方や共著で「公式ガイドブック SORACOM プラットフォーム」を書いています。2020年の #AWS IoT Heroです。"Max"はニックネームです、フォローやメッセージはお気軽に! Twitterは @ma2shita です。
iotlt
IoT縛りの勉強会です。 毎月イベントを実施しているので是非遊びに来てください! 登壇者を中心にQiitaでも情報発信していきます。 https://iotlt.connpass.com
https://iotlt.connpass.com/
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away