はじめに
シミュレーションの完成度を高めるためには、シミュレーション環境内でのセンサー類の特性を再現する必要がある。
(unity でダンシング画像を作りたいとか、その他のCG動画をシミュレーションで作りたいのであれば、仮想的な真値データをそのまま扱ってなんの問題もない。 ここでは、ロボットという不完全な計測結果しか得られない状況での
シミュレーションをする場合の話だ。)
いくつかのシミュレーション環境では、センサの出力をシミュレートするモデルを用意している。
その出力を利用することで、検出器のソフトウェアを利用することができて、シミュレーションの目的を達成することにつながる。
NVIDIAのIsaacでは、そのようなセンサがいくつか用意されている。
NVIDIA used_assets_sensors
RGBD Sensors
Lidar Sensors
ここに書かれているセンサの場合だとシミュレーション環境での点群データを元に各センサの特性に基づいて、センサデータをシミュレーションできるらしい。
これらのページにあるセンサを選んでおく分には、センサメーカーとNVIDIAとの協力関係によってサポートがされると期待される。
もし、利用するLidarがそれらのリストにない場合
おそらくは、以下の記述を元に、該当のLidarのハードウェア特性の記述をするのだろう。
https://docs.omniverse.nvidia.com/kit/docs/omni.sensors.nv.common/1.0.2/common_extension.html
すべてをシミュレーションするというのはハードルが高すぎる
- シミュレーションだけでは、シミュレーションの妥当性を示せない。
- シミュレーションをする目的を十分に明確にしよう。
- 何が示せればOKなのか?
- それはシミュレーションで示せるものなのか?
- それはシミュレーションで示した方がいいものなのか?
- 目的とする結果を得るのは、どのような条件で失敗するのかを考えよう。
- それらを考慮したうえで、シミュレーションを検討してください。