96
54

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

ARKitはどうやって自己位置推定と環境マッピングを行なっているのか

Last updated at Posted at 2018-12-01

さあ始まりました。ARKitアドベントカレンダー2018!

トップバッターの私は今回、「ARKitはどうやって自己位置推定と環境マッピングを行なっているのか」についてまとめたいと思います。

ARを支える技術

image

ARというテクノロジーは、

  • カメラから取得した画像を元に平面や物体を認識して空間を作成する
  • 撮影しているカメラの位置がその空間内でどこにいるか把握する

大きくこの2つのテクノロジーで成り立っています。

それぞれ、

  • 周囲環境マッピング(環境地図作成)
  • 自己位置推定

と呼ばれることが多いです。

この前提の元、ARKitはどうやって自己位置推定と環境マッピングを行なっているのかを理解しましょう。

ARKitはどうやって自己位置推定と環境マッピングを行なっているのか

ARKitの公式ドキュメントには以下のように書かれています。

To create a correspondence between real and virtual spaces, ARKit uses a technique called visual-inertial odometry. This process combines information from the iOS device’s motion sensing hardware with computer vision analysis of the scene visible to the device’s camera.
https://developer.apple.com/documentation/arkit/understanding_world_tracking_in_arkit

ARKitはVIO(visual-inertial odometry)と呼ばれるテクノロジーを使っています。この技術は、iOSデバイスのモーションセンサー情報と、カメラから得られる画像からの画像認識の結果を組み合わせて成り立っています。

と書いてあります。

つまり、ARKitはカメラ画像だけではなくiPhoneの加速度センサやジャイロセンサを用いた自己位置推定も行なっているということです。

ARKitが内部のセンサを使って自己位置推定を行なっていることは実験してみるとわかります。

一度ARKitのsessionを起動して辺りを見回した後に、カメラを一旦隠してデバイスを移動させてもARKitは現在地を覚えているので復活が可能です。

しかし内部センサだけで自己位置推定を行なっている訳ではなく、一度置いたオブジェクトを正しく表示するためにはもう一度しっかりカメラを使って辺りを見回す必要があります。このバランス感は開発しているAppleのみぞしるテクノロジーなところでしょう。

スクリーンショット 2018-12-01 14.45.15.png

ARrrrrghというARKitを使ったアプリ宝探しアプリが、この辺をうまく使っています。同じデバイスを使って、一人が宝を地面に埋めて、一旦カメラを隠した後(ARKitのsessionは止めないまま)、再びカメラを表示して宝探しをすることができます。

しかし問題もあります。電車だと加速度センサが反応しちゃってうまく認識できないことです。

ということで、デメリットはありつつもARKitはカメラ情報と内部センサ情報をいい感じに使ってARを実現していることが理解できたでしょうか?

SLAMとVIO

前述の通り、AppleはARKitは**VIO(Visual Inertial Odometry)**というテクノロジーを使ってARを実現しているとしています。

しかし似たようなAR技術にSLAMというものがあり、むしろこちらの方が有名です。(記事も多い)

ということで、**ARKitはSLAMを使っている訳ではないのか?そもそもSLAMとVIOって何が違うの?**というところを整理して今記事を締めくくりたいと思います。

SLAMとは

SLAM(Simultaneous Localization and Mapping)はカメラで撮影された映像から環境の3次元情報とカメラの位置姿勢を同時に推定する技術です。

kudan

モバイルでSLAM技術を使ってARを実現しているのがKudanです。最近東証マザーズ上場しました。

VIOとは

Appleは、ARKitに**VIO(Visual Inertial Odometry)**を使っているとドキュメントで述べています。

ちなみに、「Visual Inertial Odometry」でググってみると、「Visual Odometry」に関する記事や論文が多く引っかかります。真ん中にInertialがあるかないかの違いですが、位置づけとしては「Visual Odometryの中にVisual Inertial Odometryが含まれている」です。

英語ですが、wikipediaの記事はわかりやすいです。

  • VOはカメラ画像から位置と角度を決定する処理
  • VIOはその中でもIMU(Inertial measurement unit) (3軸のジャイロと3方向の加速度を計測する装置)を使って画像だけよりも更に強力な自己位置推定を行う処理

と説明されていて、先に紹介したAppleのドキュメントが「iOSデバイスのジャイロと加速度センサを使っている」という話と一致します。

SLAMとVOの違い

SLAMとVIOを直接比較することはできません。SLAMに対してIMUを組み合わせる手法もあるためです。そのためIMUを除いたSLAMとVOの比較をしたいと思います。

ARの教科書で読んだ内容では、VOはSLAMの前身で、時系列としてはVOが先に生まれて、そのあとにSLAMが生まれたという関係性になります。

また、RMIT大学の研究者のKhalid Yousifさんの記事 An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Roboticsがわかりやすかったので紹介します。

下図の(a)がVOで、(b)がSLAMです。SLAMの方が何度も補正が入ることがわかります。

slamvio

The main difference between VO and SLAM is that VO mainly focuses on local consistency and aims to incrementally estimate the path of the camera/robot pose after pose, and possibly performing local optimization. Whereas SLAM aims to obtain a globally consistent estimate of the camera/robot trajectory and map. Global consistency is achieved by realizing that a previously mapped area has been re-visited (loop closure) and this information is used to reduce the drift in the estimates.
https://link.springer.com/article/10.1007/s40903-015-0032-7#Sec1

上記の文章は、VOはローカル最適化、SLAMはグローバル最適化に焦点を当てていると要約することができます。つまり、SLAMの方がより広い範囲を認識してARすることができる点で優れている一方、計算量が多いという欠点があります。

Its advantage over standard (global) bundle adjustment is a great reduction of computational complexity, which allows real-time performances with a similar accuracy.
https://ieeexplore.ieee.org/document/5206824

「ローカル最適化はグローバル最適化に比べて計算の複雑性を排除している点で優れていて、同じような正確性でリアルタイムで高いパフォーマンスを出すことができる」と述べている論文もあります。

なぜARKitはVOなのか

ここからは僕の考察です。

なぜARKitがSLAMではなくVOを使っているかと言えば、SLAMの計算処理は重くてモバイルのARに対してはオーバースペックだったからだと予想されます。

現にARKitを長い時間使うとデバイスが熱くなってフレームレートが落ちるように制限されてしまいますが、デバイス制約がある中で、iPhoneやiPadのセンサを生かしつつ、より少ない計算量で空間認識することができるVIOを選択したのだと考えられます。

まとめ

  • ARKitはジャイロセンサや加速度センサとカメラ画像を使ってARを実現している
  • ARKitの使うその技術はVIO(Visual Inertial Odometry)と呼ばれている。
  • VIO(Visual Inertial Odometry)はVO(Visual Odometry)の種類の1つ
  • SLAMは広範囲最適化されるが計算量が多い、VOは狭範囲最適化しかされないが計算量が少ない
  • KudanはSLAM, ARKitはVO
96
54
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
96
54

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?