漢なら vid2vid で動画生成したいですね!
やりましょう!
できました.
ねんがんの vid2vid の実行に成功したぞ!!!! 🎉🎉🎉🎉✨✨✨💮💮💯💯💯💯💯💯💯💯✨✨✨✨㊗️㊗️㊗️㊗️㊗️✌️✌️✌️✌️✌️✌️💪💪💪💪💪 しかしやるべきことたくさんあります. 優秀な vid2vid 若人を合法的なあらゆるどんな手段を使ってでも探し出す旅に出たい. 日々精進あるのみですね. pic.twitter.com/xcfQaOYoq6
— Syoyo Fujita ⚡️ No ray tracing No life (@syoyo) August 22, 2018
実行環境
- Ubuntu 16.04 + CUDA 9.0
- pytorch 0.4.1
- 1080 Ti
依存ライブラリのコンパイル
script を動かし, flownet2 をダウンロード, コンパイルします.
$ python ./scripts/download_flownet2.py
モデルを落とします.
$ python ./scripts/download_models.py
ダウンロードにしばらくかかりますので待ちます.
動かす.
README を参考にやりましょう.
$ ./scripts/test_2048.sh
Voila! vid2vid で画像が生成されました!
TODO
- DensePose https://qiita.com/syoyo/items/e9193d18b0970950b9c6 とポーズ推定を組み合わせ, Tik Tok 映えダンス動画生成を極める.
- Quadro RTX 8 枚差しマシンで学習したい(論文によれば, 学習は V100(32 GB mem version?) x 8 で 10 日かかっている).
- 優秀な GAN 若人さまが, 人類史上最速で優秀な vid2vid 若人さまへ昇華 なされるスキームを確立する