LoginSignup
1
3

More than 5 years have passed since last update.

機械学習論文読みメモ_156

Posted at

CalibNet: Self-Supervised Extrinsic Calibration using 3D Spatial Transformer Networks
3D Lidarと2Dカメラは認識タスクにおいて組み合わせて用いられる事が一般的である。
しかしそのためにはintrinsic/extrinsicのキャリブレーションが必須である。
そしてこのキャリブレーションは多大なコストがかかるためスケーラビリティを落とす
原因となっている。
本論ではこの問題に対する手法として、self supervisedなDNNを用いた3D Lidarと2Dカメラ間の
rigid transformをリアルタイムに予測する手法を提案する。
この手法はキャリブレーションターゲットを用意する必要がなく低コストである。
DNNの学習時には、Lidar point cloud, 2D camera input, camera intrinsicのみを要求し
直接的なsupervisionは要求しない。
代わりにdense photometric errorとdense point cloud distance errorをself supervisionとして
最小化する事で学習を行う。

Large Scale Distributed Neural Network Training Through Online Distillation
ensemblingとdistillationを組み合わせた手法はほとんどのbase modelに対して、性能の向上が期待できる。
しかしensemble手法はtest timeが増加してしまう問題、distillationは学習プロセスが複雑になる
問題がある。
本論では、新たなオンラインdistillation手法としてCodistillationを提案し、
これは従来のmulti-stageな学習プロセスやたくさんのパラメータチューニングを要求しない。
この手法を提案するにあたってまず、本論はCodistillationを行う事で
より高速な学習が可能になる事を主張する。
特に重要な事に、従来の分散stochastic gradient descent学習手法におけるworker数の増加が
性能向上にこれ以上寄与しない状況に対しても提案手法はさらなる性能向上が望める。
この手法は各ノードでの独立なモデル学習を行う従来のアンサンブル学習において、
さらにその損失関数へ他モデルの平均精度に対する乖離を最小化させるような制約を加える。
これによりさらなる学習ステップを追加する事なくdistillationを組み込む事が可能になる。

Universal Planning Networks
複雑なvisuomotor controlタスクでは有用な特徴表現を獲得する事が
大事になってくる。
本論で提案するuniversal planning networks (UPN)はpolicyモデルに
微分可能なplannerを埋め込む。
このplannerは特徴空間上でgradient descentによる最適化を利用した
プランニングを行う。
こうした勾配ベースのプランニングモデル及び利用される特徴空間は
end to endで学習する事が可能である。

1
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
3