11
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Hitachi × インテル_AI Hackathon -エキシビジョンチームとして参戦!- (後編)

Last updated at Posted at 2021-10-04

はじめに

こんにちは。(株) 日立製作所の Lumada Data Science Lab. の小幡拓也です。

2021年6月に、日立製作所Lumada Data Science Lab.とインテルが共同で主催したAIハッカソンが開催されました。
私はこのイベントに、日立製作所Lumada Data Science Lab.とインテルの混成エキシビションチームメンバーとしてハッカソンに参加しました。

AIの民主化を目指すハッカソンに潜入 〜日立 × Intel AI Hackathonレポート

この記事ではエキシビションチームが検討・開発したソリューションについて、実現手段をメインにご紹介いたします。

プロトタイプの要素技術と開発分担

プロトタイプの開発は、エッジコンピュータ側は日立のメンバー、クラウド側はインテルのメンバーでそれぞれ分担して実施しました。

開発は分担して実施しますが、それぞれの要素技術としては次のとおり連携しています。

  • エッジコンピュータで収集した画像データをクラウドでラベリング
  • クラウドでラベルに基づく学習を基にモデルを生成
  • クラウドからエッジコンピュータにモデルをデプロイ
  • エッジコンピュータ側でモデルに基づき対象を認識し、声でお知らせ

001.png

エッジコンピュータ側の処理

エッジコンピュータ側の処理内容は下図のフローのとおりです。エッジコンピュータにはOpenVINO™ ツールキット環境がプレインストールされており、このDockerイメージから作成したコンテナ上で動作します。

002.png

①最新モデルダウンロード&デプロイ

起動時に最新モデルをクラウドからダウンロードして所定のフォルダに置くことでデプロイします。

②物体検出と距離取得

物体検出を行い検出された物体までの距離の取得を行います。

③状況判断とナビゲーション

得られた物体情報から状況を判断し、ナビゲーションが必要であればナビゲーション音声を出力します。

④「覚えてフラグ」のチェック

「覚えてフラグ」のチェックをします。「覚えてフラグ」がTrueの場合、画像をクラウドストレージにアップロードします。そして物体検出に戻り、以降は①~④を繰り返します。

💡 「覚えてフラグ」とは、一定の閾値を超えた音量の「覚えて」という言葉が入った時にTrueになるフラグです。別スレッドで常にマイクからの音声入力を監視しています。

ちなみに、装置一式を装着したときの姿はこんな感じです。背負っているリュックの中にエッジコンピュータの本体が入っています。一見重たそうに見えますが、本体は4kg程度です。

003.png

エッジ側の主要な要素技術

エッジコンピュータ側の主要な要素技術となる「物体検出」「距離取得」「状況判断」「音声入出力」のロジックを紹介します。

1.物体検出

モデルを構築するために、点字ブロック、トイレマークの学習用の画像を取得しました。人の認識モデルは既存のものを使用しています。

点字ブロックは複数の形、複数の角度のデータを取得

004.png

トイレマークは複数の背景、複数の角度のデータを取得

005.png

学習済みのモデルを使って、トイレマークや点字ブロックが認識できるかを確認しました。

006.png

トイレマークと点字ブロックを正しく認識しました。学習モデルが作成できたことがわかります。

2.距離取得

距離をカメラの深度画像から算出しています。音声出力までのラグ(1歩分)を考慮し、今回は簡易的に3メートル先=3歩先と定義しました。

3メートル以内にある物体を検知するように設計しました。

深度画像とは、画面に映ったものが近くにあるのか遠くにあるのかを表す方法です。近いものは赤く、遠いものは青く表現されています。

007.png

3.状況判断

トイレマーク、点字ブロック、点字ブロックと人など、カメラの視野に入ったものが何であるかを判断する方法について説明します。まず、カメラの視野を次のように3分割して、どこで物体が検知されたのかによって、状況協判断を行いました。

008.png

  • トイレマーク

    画像を縦に3分割し、座標を用いて左右/中央の判定を行いました。本当は視角を考慮すべきですが、今回は簡略化しました。

009.png

この例の場合、状況判断処理では以下のように画面左側にトイレマークがあると判断し、「トイレは正面左側です」というアナウンスを行います。

010.png

  • 点字ブロック

    3分割した画像の中央にあると認識された場合に、点字ブロックがあることを知らせました。

    011.png

    この例の場合、状況判断処理では真中に点字ブロックがあると判断し、「点字ブロックがあります」というアナウンスを行います。

    012.png

  • 3分割した画像の中央にいると認識された場合に、人がいることを知らせました。

 013.png

 この例の場合、状況判断処理では歩行者の動線上に人がいると判断し、「人がいます」というアナウンスを行います。

 014.png

  • 点字ブロック + 人

    点字ブロックおよび人が画像中央で認識された場合、点字ブロック上(動線上)に人(障害物)があると定義し、危険を知らせました。

    015.png

    016.png

4.音声入出力

今回は時間の関係上、マイクから閾値以上の音が入力された場合に、音声を認識したと定義しました。
また、危険をお知らせする音声は、あらかじめツールを用いて作成し、状況判断に合わせて再生しました。

Edge-to-Cloud 継続的自動再学習ソリューション

エッジコンピュータにおけるAI推論とクラウド上でのモデルの自動再学習の実現方法を紹介します。主にクラウド側の仕組みに関して記載いたします。

処理の流れ

017.png

①エッジコンピュータからクラウドへ画像をアップロード

エッジコンピュータ上ではディープラーニングモデルを使用した推論処理が行われております。ただし、モデルの運用中に正確に認識できなかった画像(映像からフレーム切り出し)や追加で学習させておきたい画像などを都度クラウドストレージへアップロードします。

②アノテーション

アノテーション担当チームが定期的にクラウドストレージの中身を確認し、アノテーション作業を行います。

③再学習用サーバーの自動生成

アノテーション終了後に担当者が作業完了通知をシステムに送信します。すると、それをトリガーとして学習用のサーバーが自動で生成され、学習が開始されます。

④モデルの再学習

サーバー上でデータ前処理およびモデルの学習処理が実施されます。データセットのボリュームにもよりますが、数分から数時間程度かかります。

⑤再学習完了通知とサーバー自動削除

学習が完了すると、学習サーバーはその旨を完了通知としてシステムに送信します。それをトリガーとして、学習サーバーは自動で削除されます。

この処理により、学習用サーバーを学習処理の間のみ起動しておくことができるため、クラウド利用コストの最適化が実現できます。

⑥モデルの性能検証

モデルの学習が完了すると、AIエンジニアによりモデルの性能検証が行われます。これは現在使用しているエッジコンピュータ上での性能検証、または、その他のデバイスでの性能検証も含まれます。

⑦モデルの公開

検証が完了したモデルは確認用にWebアプリケーションとして公開されます。これにより非技術系の関係者もWebブラウザからを簡単に試すことができます。

⑧エッジコンピュータへのモデルデプロイ

学習済みモデルのエッジコンピュータへの取り込みはエッジコンピュータ側のタイミングで行います。具体的には、デバイス未使用時やデバイス起動時などに学習済みモデルをクラウドからダウンロードして使用します。

所感

エキシビションチームメンバーに今回のAIハッカソンに参加してみての感想を聞きました。

エキシビションチームとしての活動はいかがでしたか?

  • インテル社のエンジニアの方とのコラボによりクラウド技術に関する知見を深められました。また、クラウドを利用したソリューションの考え方を学ぶことができました。
  • 普段の業務では約2週間で実際に動くものを作り上げて、デモンストレーションまで行うという経験がなかったので、非常に貴重な機会をいただき楽しかったです。

作成したアプリについて気づきなどありましたら教えてください。

  • 実際にデバイスを装着してデモを行ったのですが、音声によるガイドは音声を聞き終わるまで待機しないといけないということがわかりました。可能な限り短文でガイドしてくれると待機時間が少なくストレスフリーになると感じました。

今回のハッカソンはすべてオンライン上での実施でしたが、やりにくさなどありましたでしょうか?

  • 全てオンライン上で完結するハッカソンは初めて経験しましたが、イベントを成立させるための工夫が随所にありました。現在テレワークがメインとなっていますが、ブレストの進め方など、実業務に応用できそうなものもありました。

ハッカソンでは開発に必要なデバイスやツールが提供されました。使用してみていかがでしたか?

  • CE50-10はDockerを用いてプリインストールされたAI開発環境(OpenVINO™ ツールキット)を容易に構築することができ、スムーズに実装に着手できました。

  • 本来は推奨されないかもしれないのですが、今回のデモではCE50-10をバックパックに入れて持ち歩くという排熱的に過酷な使い方をしました。しかし、不具合を起こすことはありませんでした。高い耐環境性の一端を確認できたと感じています。

  • CE50-10のスペックを実感できたので、今後エッジAIが必要なプロジェクトでは選択肢の一つとして考えていきたいです。

おわりに

いかがでしたでしょうか?

後編では、日立製作所Lumada Data Science Lab.とインテルがタッグを組んだ、エキシビションチームが作成したソリューションの実現手段について解説しました。

このソリューションのコンセプトをまだ見ていない方は、ぜひ前編をご覧ください。

最後まで読んでくださり、ありがとうございました。

商標

  • Azureは,米国Microsoft Corporationの米国およびその他の国における登録商標または商標です。
  • Docker は,Docker Inc. の米国およびその他の国における登録商標もしくは商標です。
  • Intel、インテル、Intel ロゴ、その他のインテルの名称やロゴは、Intel Corporation またはその子会社の商標です。
11
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
11
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?