はじめに
SLAMについてはここから↓
RGBから3Dへ-SLAM,そしてディープラーニング-
PTAMについて
Parallel Tracking and Mapping for Small AR Workspaces
論文はこちら
ABSTRACT
This paper presents a method of estimating camera pose in an unknown
scene. While this has previously been attempted by adapting
SLAM algorithms developed for robotic exploration, we propose a
system specifically designed to track a hand-held camera in a small
AR workspace. We propose to split tracking and mapping into two
separate tasks, processed in parallel threads on a dual-core computer:
one thread deals with the task of robustly tracking erratic
hand-held motion, while the other produces a 3D map of point features
from previously observed video frames. This allows the use of
computationally expensive batch optimisation techniques not usually
associated with real-time operation: The result is a system that
produces detailed maps with thousands of landmarks which can be
tracked at frame-rate, with an accuracy and robustness rivalling that
of state-of-the-art model-based systems.
本論文では(新しく撮影する)フレームにおけるカメラの姿勢推定の方法について方法を提案します。これは、以前はロボティクス分野のために開発されたSLAMアルゴリズムを用いることによって行われていたが、本論文では小さなAR作業空間での携帯カメラを追跡するために特別に設計されたシステムを提案します。追跡(トラッキング)とマッピングを2つの別々のタスクに分割し、デュアルコアコンピュータ上の並列スレッドで処理することを提案します。一つのスレッドでは携帯モーションカメラの汎化性の高いトラッキングを行い、もう一方のスレッドでは過去の(すでに撮影されている)ビデオフレームから特徴点の3Dマップの作成を行います。ここでは通常のリアルタイム操作では行わないようなコンピューターにとって負荷の重いバッジ処理技術を行うことになります。結果、数千の特徴点を持った詳細なマップを生成し、それを、最先端のシステムでの精度と汎化性に匹敵するような性能で、フレームごとにトラックすることができるようになります。
目的
3D空間の認識が難しいマーカーレスなARシステムにおいて現実3D空間上で特徴点を利用しそれをトラッキング(追跡)すると同時にマッピングも(parallel threadsにおいて)行うことで、精度とロバスト性とスピードをあげること。