LoginSignup
49
47

More than 3 years have passed since last update.

AWS DeepLensを使ってみた!

Last updated at Posted at 2020-01-01

この記事の目的

AWS DeepLensを触ってみたので、開封から開発者ガイドに従いDeepLensでアプリケーションを実行するまでの流れを書いてみます。全体の流れは、公式サイトに記載の通り以下の流れになっています。

image.png

  • AWS DeepLens の電源をオンにすると、動画ストリームがキャプチャされます。
  • AWS DeepLens は、2 つの出力ストリームを生成します。
    • デバイスストリーム—処理されずに渡される動画ストリーム。
    • プロジェクトストリーム — モデルによる動画フレームの処理結果
  • Lambda 推論関数は未処理の動画フレームを受け取ります。
  • Lambda 推論関数からプロジェクトのディープラーニングモデルに未処理のフレームが渡されて処理されます。
  • Lambda 推論関数は、モデルから処理済みのフレームを受け取ってプロジェクトストリームに渡します。

開発環境、必要なもの

  • AWSアカウント
  • DeepLens(自分の場合はHW v1.1でした)

セットアップ

AWS DeepLens

中はこんな感じ。

Hardwareの技術仕様は開発者ガイドをご確認ください。

開発環境のセットアップ

  • AWSアカウント、IAMユーザーを作成します。
  • IAMロールについては、事前に作成しなくても、AWS DeepLensコンソールを操作する中で自動的に作成されるので、事前に作成はしませんでした。

AWS DeepLensでアプリケーションの実行

AWS DeepLensデバイスの登録

DeepLensでアプリケーションを実行するには、事前にデバイスをAWSに登録し、その後にプロジェクト(アプリケーション)をデバイスと紐付けるという手順のため、まず、DeepLensデバイスをAWSに登録します。

  • AWSコンソールで、DeepLensサービスを開き、デバイスの登録から、説明に従い、デバイスの登録を進めます。
  • 自分の場合は、デバイスの検出のところでデバイスがなかなか検出されずにつまづきましたが、DeepLens底面に記載されているSSIDにWiFi接続する[参考]と、なぜか検出され、登録が完了できました;;
  • 補足
    • デバイス登録の最後に、IAMロールの追加を求めるチェックボックスがあり、このタイミングでDeepLensサービスで必要なIAMロールは追加されていました。

プロジェクトの作成とデプロイ

AWS DeepLensのプロジェクトは、ディープラーニングモデルと入力イメージを処理するLambda関数で構成されます。
プロジェクトタイプとして、事前設定されたプロジェクトの利用と、空のプロジェクトの2種類選択できるのですが、まずは動作確認として、サンプルプロジェクトを試してみます。

  • サンプルプロジェクトでは、以下の8つが選択可能でした。
    • 物体検出
    • 画風変換
    • 顔検知
    • ホットドッグ認識
    • 猫/犬認識
    • 行動認識
    • 頭部姿勢検知
    • 鳥の分類

image.png

サンプルプロジェクト:物体検出

まずはプロジェクトを作成します。

  • プロジェクトテンプレートは、物体検出を選択しました。物体検出の画像データセットとして、Pascal VOCデータセットを利用しているみたいです。テンプレートを利用すると、数クリックでプロジェクトを作成できるので、かなり楽にプロジェクトが作成できます。 image.png

次に、デバイスへデプロイします。

  • プロジェクト画面で、プロジェクトを選択し、デバイスへのデプロイを選択すると、デバイス一覧が表示されるので、デプロイしたいデバイスを選択して、デプロイボタンを押すと、デプロイが実行されます。
  • 2〜3分待つと、プロジェクトのデプロイが完了していました。
    image.png

  • デプロイが完了すると、同じRegionにLambdaが3つ作成されていました。上の二つがDeepLensの管理系のLambda、一番したのLambdaが推論処理をしているLambdaでした。Greengrassを使ってLambdaをDeepLensにデプロイして処理しているようです。
    image.png

最後に、プロジェクトの実行結果を確認してみようと思います。

  • ブラウザで映像を確認するには、ブラウザに証明書を設定する必要があります。その後、ローカルIPでブラウザに接続すると、↓のように画像が確認できます。うまくbottleと認識されています。
    image.png

  • 認識結果をAWS IoTのMQTTクライアントでも確認することができます。下記のように、認識結果が確認できました。

{
  "sofa": 0.41943359375,
  "chair": 0.388427734375,
  "tvmonitor": 0.30517578125
}

終わりに

  • 大体30分くらいはかかりましたが、割と簡単にサンプルは実行できました。
  • 推論処理にかかる時間も意外に早くて、200msecくらいかなと。
  • 今回は、サンプルテンプレートの実行だけだったので、次はカスタムプロジェクトで実施してみたいと思います。

参考記事

49
47
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
49
47