「AnimeGAN」とは
TachibanaYoshinoさんが作成した、GANで画像をアニメ風に変換するソフトウェアです。詳細は以下リポジトリを参照ください。
TachibanaYoshino/AnimeGAN
CartoonGAN-TensorflowやAnime-Sketch-Coloring-with-Swish-Gated-Residual-UNetがベースになっているようです。
学習済みモデルもあって簡単に動かせます。試してみたので動作メモと、結果の紹介です。
「AnimeGAN」動かし方
READMEに書いてある通りで動くのですが、手っ取り早く動かしたい人のために少しだけ詳しく書きます。
最初にPython環境、必要なライブラリをセットアップしましょう。初心者だとここが一番難しいかもしれませんね。以下ブログ記事をみて適当に(雑な説明)。
Pythonで機械学習をするための環境を雑にセットアップする方法(Jupyter notebook環境、ディープラーニング環境含む)on Mac/Linux
あとは、以下で事前準備(ソフトと学習済みモデルのダウンロード)します。
$ git clone https://github.com/TachibanaYoshino/AnimeGAN
$ cd AnimeGAN
$ wget https://github.com/TachibanaYoshino/AnimeGAN/releases/download/Haoyao-style_V1.0/Haoyao-style.zip
$ unzip Haoyao-style.zip
あとは、適当なディレクトリ(仮にsample
とします)を作成して、変換したい画像を入れておきましょう。そしたら以下コマンド実行すればオッケーです。
$ python test.py --checkpoint_dir Haoyao-style --test_dir sample --style_name H
results
というディレクトリ以下に変換した画像が生成されています。
「AnimeGAN」生成画像
例1
例2
例3
例4
例5
まとめ
「AnimeGAN」を試して、実際に手持ちの画像で試して見ました。若干破綻がみられるケースもありますが、Photoshopとかの高度なツールも手間もなく手軽にこれだけ変換ができるのは面白いですね。
今回は普通にCPUで変換行いましたがGPU使ったりモデル軽量化して、リアルタイムに動画を変換したらなかなかインパクトありそうです。