1. 概要
非常に短い極小時間のタイムスケールを考えてみると、秒単位からピコ秒単位まで撮影時間を短くすると、光源から光が物体に反射してカメラに届くよりも速い速度でシャッターを切るため、光がほとんどないため通常のカメラでは撮像できない。この論文では、極小時間の撮影で動的にシーン全体を再構築する技術を提案している。
*BEST PAPER AWARD
2. 新規性
従来手法で提案されている、単一光子(Single-Photon)を用いた光の強度や単位時間あたりに通過するエネルギーおよび光子の量を推定するフラックス推定手法では、動的なシーンを同時に撮影することができないため、光子を検出したタイムスタンプのストリームからピクセルの時間変動分のフラックスを再構築する、フラックスプロービング理論を提案している。
3. 実現方法
- パッシブな自由走行型カメラ(Single-photon avalanche diode: SPAD)を用いて、低光量条件でDCから31 GHzまでの周波数帯域を持つことを可能にした。
- タイムスタンプデータ内において、統計的に有意な分布を持つ周波数をスキャンする新しいアルゴリズムを提案している。(フーリエドメインフラックス再構築: Fourier-domain flux reconstruction algorithm)
- アルゴリズムのノイズモデルが、非常に低い光子カウントや無視できないデッドタイムの場合でも頑健であることを示している。
4. 結果
同期せずに異なる速度で動作する光源(例えば、電球・プロジェクタ・複数のパルスレーザーなど)によって、同時に照らされるシーンを再構築することが可能となった。非同期で超広帯域のビデオの記録ができるようになり、例えば30 Hzで再生して日常の動きを再構築することが可能で、光の伝播を利用しているため、通常の動画と比べて10億倍遅く再生することができる。
last updates: Oct 8 2023