1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

【Mono Depth】Mono Depth2 : 3種類のlossを計算するテクニック

Posted at

Digging Into Self-Supervised Monocular Depth Estimation

MonoDepth2は従来研究に3つのlossの計算方法を導入しSOTAを獲得した。

新規性

Per-Pixel Minimum Reprojection Loss

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/482094/64aac699-63ad-042b-2ddb-be326ac033ab.png) photometric errorを複数のframeから計算し、一番errorが小さいものをlossとして定義する

image.png

図にあるようにerrorが大きいものはOcclusionとしてと考えられ、それを無視する事でより良いlossを計算できる。

Auto-Masking Stationary Pixels

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/482094/72244aac-bdd3-7ed1-cb9a-c70fa68386ea.png) 左辺:warpさせたImageのphotometric loss 右辺:2つのframe間のPhotometirc Loss

左辺が小さい時: 推定が上手くいった時
右辺が小さい時:Cameraが動いていない or 物体が同じ速度で動いている

よって
右辺のが小さい場合にμが0となり、maskingされる。

image.png
上図: 同じ速度で動いてる物体はmaskingされている
下図: cameraが動いていないので、画像全体がmaskingされている

Multi-scale loss

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/482094/d79b0aac-e33f-e767-e86f-3401ffc6fcec.png) 複数の解像度でDepthを推定する。 baselineでは解像度の大きさのままlossを計算していたが、upsampleしてからlossを計算すると精度が上がる事が分かった。

結果

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/482094/f4706d7b-1826-29b8-139f-61739483e4db.png) min reprojection / auto-masking / full-res multi scaleのどれをなくしてもerrorが大きくなっている事が分かる。 よって3つとも効果的である事が示された。

結論

・lossをより良く定義出来れば、精度はあがる。

参考文献

Digging Into Self-Supervised Monocular Depth Estimation https://arxiv.org/pdf/1806.01260.pdf
1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?