こんにちは!!Asterです!!!
本日はInstantNeRFでの動画の出力の仕方を記事に書こうと思います!
InstantNeRFとは
「NeRF」(Neural Radiance Fields)は、さまざまな角度から撮影した複数の写真から、自由視点画像を生成する技術です。深層学習によって生成された画像を通じて、好きな視点から対象物を見ることができます。
要するに動画から3Dシーンをつくることができるということですね。
githubはこちらです。
動画の出力の仕方
まず、instantNeRFを立ち上げてください
(19044\aster\NeRFの部分とdataの部分は自身の環境に合わせてください)
C:\Users\19044\aster\NeRF\instant-ngp\build\testbed.exe --scene data/meijo2
するとこの画面が出てくると思います.
次に動画を撮るためのカメラ位置を決めます。
撮りたいカメラ位置に移動したらAdd from camのボタンをクリックしてください。
するとカメラ位置にカメラ情報が出てきます。
これを繰り返してカメラ位置を追加していきましょう
次にこのカメラの軌道を保存しましょう.
追加方法は画像のように2つのSaveを押すだけです。
これで下記のように
base.msgpackとbase_cam.jsonファイルが生成されていれば完了です。
次に動画の出力をしましょう。
※ffmpegが入っていないと学習が終わっても動画の出力がされません。絶望します...
念のため下記のコマンドを実行し,ffmpegが入っているか確認しましょう!
ffmpeg -version
入っていなかったら、こちらの記事を見て入れましょう
ffmpegが入っていれば下記のコマンドを実行してみましょう
pathは各自のpathに変えましょう
結構時間がかかるので、注意してください。10秒で30分かかります。
時間を変える場合は--video_n_seconds 10 を変えてください
python scripts/run.py --scene data/meijo2 --load_snapshot data/meijo2/base.msgpack --video_n_seconds 10 --video_fps 60 --width 1920 --height 1080 --mode nerf --video_camera_path data/meijo2/base_cam.json
以上で動画を撮ることができます。
まとめ
動画の出力は英語の動画しか見当たらなかったため、今回InstantNeRFでの動画の出力の仕方を記事にしました。
この記事をみて、NeRFで撮った動画がもっと世に出ることを願っています!!!