LoginSignup
7
9

More than 3 years have passed since last update.

【論文紹介】End-to-End深層学習による大域的自己位置推定

Last updated at Posted at 2019-05-14

紹介する論文

Alex Kendall, Matthew Grimes, and Roberto Cipolla. "PoseNet: A convolutional network for real-time 6-DOF camera relocalization," In IEEE International Conference on Computer Vision, 2015.

論文の要約

  • 単眼のカメラ画像と対応する3次元のカメラ位置の対応をEnd-to-Endで学習し,入力された画像に対応するカメラ位置を予測する
  • ある1つの入力に対するカメラ位置を予測できるため,大域的自己位置推定(すなわちre-localization)の問題を解くことができる

はじめに

End-to-End学習とは,入力と出力の対応を直接学習することです.本論文では,End-to-End学習で単眼のカメラ画像から対応するカメラ位置推定を行う方法を提案しています.これにより,ある1つのカメラ画像の入力に対する自己位置の予測ができる,すなわち過去の状態に何も依存しない自己位置推定が行えるため,大域的自己位置推定の様なre-localizationの問題が解けるようになります.

1ページのタイトルより上に,結果の画像(論文中図1)が示されています.上が入力画像,真ん中が予測された位置から見た3次元地図,下が3次元地図を入力画像に投影した図になります.最近の論文は1ページ目にインパクトのある図を置くことが多いですが,これはかなりインパクトがありますね.

figure1.png

学習

単眼の画像$I$とそれに対応するカメラの3次元位置${\bf x}$と姿勢(クォータニオン)${\bf q}$の関係を学習します.学習を行うための損失関数は次式(論文中式(2))になります(ネットワークが出力するクォータニオンは正規化されていないので,明示的に正規化します.予測時も同様に正規化します).

loss(I)=\|{\bf \hat{x}}-{\bf x}\|_{2}+\beta\left\|{\bf \hat{q}}-\frac{{\bf q}}{{\bf \|q\|}}\right\|_{2}

位置と姿勢の単位が違うため単に2つを足し和せると,学習時に姿勢の損失が考慮されにくくなるので,スケールファクターである$\beta$を導入しています.スケールファクターの変化による損失関数の変化の仕方が下図(論文中図2)になっています.スケールファクターによって損失関数が変化していることが見てとれます.

scale_factor_and_loss.png

なお,屋内・屋外環境でもそれぞれ有効なスケールファクターの値は異なる様で,屋内だと120から750,屋外だと250から2000になるそうです.これは屋外の方が遠くのランドマークが観測できるため,角度の変化によるずれが顕著になるためだとといえます.

ネットワーク構成

GoogLeNetに多少の修正を加えたネットワークを利用しています.具体的には,以下のことを行っています.

  • ソフトマックスのレイヤーを削除し,位置・姿勢を出力するために出力層を修正
  • 出力層の直前に2048個の全結合層を追加し,自己位置推定のための特徴ベクトルを抽出する
  • テスト次にはクォータニオンを正規化する

データセット

Cambridge Landmarksというデータセットを著者らが作成し,学習・テストを行っています.下図(論文中図4)にデータセットが示されており,緑が学習時の,青がテスト時の,赤がテストデータに対して予測されたそれぞれのカメラ位置になります.なお,学習データを作成するために,この論文で述べられているStructure from Motion(SfM)が利用されています.

datasets.png

実験

様々な環境・条件で実験が行われ,その有用性が検証されています.上が入力画像,下が予測された位置から見た3次元地図になります.

入力画像ぼやけているとき.
results_with_blur.png

照明条件が異なるとき.
results_with_different_illumination_conditions.png

それぞれで正しく自己位置推定が行えていることが確認できます.

サリエンシーマップ

この論文で紹介されている方法を用いて,深層学習がどの領域に反応しているか(どの領域が損失関数の勾配を大きくするために寄与するか)を可視化することで作成したサリエンシーマップが下図(論文中図11)に示されています.空や,歩行者や自動車といった自己位置推定のために不要そうな情報に関しては,ネットワークが反応していないことがわかります.また,SIFTなどでは検出できない様な大きな領域にまたがって深層学習が反応していることも確認できます.

saliency_maps.png

感想

「End-to-End学習ですべて解く」と聞くと,モデリングなども対してやってないで研究として面白くないのでは?と思いながら否定的に読み始めました.実際,論文に式は2つしかなく,モデル化という観点からは面白くないといえます.しかし実際に読んでみると,かなり面白い論文でした.実験,比較,考察の質が高く,読んでいて「なるほど!」と思える部分が非常に多かったです.

論文を通して「We found」という表現が多い印象があり,かなり実験をやって色々なことを検証したのだなと感じました.また,SfMやSIFTなどの従来技術をしっかり用いて比較を行っている辺りは,画像処理に関する事をしっかりやって来たからこそできる研究であるなと強く感じました.

「単に深層学習を使った」というだけでなく,深くそれに関する検証や考察を行っている辺りは,さすがICCVに採択されるだけの論文だと改めて実感できました.

7
9
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
7
9