LoginSignup
7
11

More than 3 years have passed since last update.

PGGANとStyleGANに関する情報

Posted at

PGGAN

Stylegan の原点となるGAN、全てはここから始まった。2018年に発表され、PGGAN (Progressive Growing GAN) ... Progressive Growing GAN(PGGAN)は、GANで高解像度な画像生成を可能にした手法の1つ。 PGGANでは1024×1024解像度の画像が生成できるようになった。言われなければ生成画像とは分からないレベルといわれたが、現在のStyleGANからみれば未熟な点がある。しかしネットワークの構造はStyleGANに比べればシンプルでわかりやすい。PGGANの特徴として低解像度の画像から学習していき、徐々に解像度を上げていく仕組みが挙げられる。この特徴により難しいと言われてきた高解像度での学習を安定させ、更に全体の学習時間の短縮にもつながるといったメリットが生まれた。

PGGANのオリジナルGitHub

GitHub - tkarras/progressive_growing_of_gans: Progressive Growing of GANs for Improved Quality, Stability, and Variation
https://github.com/tkarras/progressive_growing_of_gans

Paper

Karras, T., Aila, T., Laine, S., & Lehtinen, J. (2017). Progressive growing of gans for improved quality, stability, and variation. arXiv preprint arXiv:1710.10196.
https://arxiv.org/abs/1710.10196

StyleGAN

2018年に発表。
StyleGANの登場により「写真が証拠になる時代は終わった」としばしば騒がれるようになった。
Genera tive Adversarial Networks(以下、GAN)とは教師無し学習に分類される機械学習の一手法で、学習したデータの特徴を元に実在しないデータを生成したり、データを変換することができる。
下に示す画像は一見写真のように見えるが、実際は全て存在しない人物であり、StyleGANによって生み出された画像である。
image.png
引用:A Style-Based Generator Architecture for Generative Adversarial Networks (https://arxiv.org/abs/1812.04948)

StyleGANのオリジナルGitHub

GitHub - NVlabs/stylegan: StyleGAN - Official TensorFlow Implementation
https://github.com/NVlabs/stylegan

Paper

Karras, T., Laine, S., & Aila, T. (2019). A style-based generator architecture for generative adversarial networks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 4401-4410).
https://arxiv.org/abs/1812.04948

StyleGAN2

StyleGAN2のオリジナルGitHub

2019年に発表。
改良版のStyleGAN。AdaINの代わりにCNNのWeightを正規化することでdropletの除去、Progressive Growingの除去で不自然なモードの改善、潜在空間で連続性を持たせることで画像品質向上を図る。StyleGANに比べてFID等が大きく向上。元々PGGANを改良したStyleGANだったが、StyleGAN2ではそのProgressive Growingを使わない方法を提案。 個人的にはStyleGANより重く、GPUはV100がおすすめ。学習に時間がかかるが、StyleGANより、画質が本物に近い。

GitHub - NVlabs/stylegan2: StyleGAN2 - Official TensorFlow Implementation
https://github.com/NVlabs/stylegan2

Paper

Karras, T., Laine, S., Aittala, M., Hellsten, J., Lehtinen, J., & Aila, T. (2020). Analyzing and improving the image quality of stylegan. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 8110-8119).
https://arxiv.org/abs/1912.04958v2

StyleGANとStyleGAN2の技術的解説

GANの基礎からStyleGAN2まで. by Akihiro FUJII
この記事にのリンク 

StyleGAN2-ADA

2020年秋に発表。
少なすぎるデータを使用して生成的敵対的ネットワーク(GAN)をトレーニングすると、通常、弁別器(Descriminator)の過剰適合につながり、トレーニングが発散する。限られたデータ体制でのトレーニングを大幅に安定させるAdaptive Discriminator Augmentationのメカニズムが提案された。この方法により、いままで数万枚必要な学習データが、数千でも良くなるとのこと。

StyleGAN2-ADAのオリジナルGitHub

GitHub - NVlabs/stylegan2-ada: StyleGAN2 with adaptive discriminator augmentation (ADA) - Official TensorFlow implementation
https://github.com/NVlabs/stylegan2-ada

Paper

Training Generative Adversarial Networks with Limited Data
Tero Karras, Miika Aittala, Janne Hellsten, Samuli Laine, Jaakko Lehtinen, Timo Aila
https://arxiv.org/abs/2006.06676

Fréchet Inception Distance (FID)について

Frechet Inception Distance(FID)は、生成された画像の分布と元の画像の分布がどれだけ近いかを測る指標.
StyleGANで学習がどのくらい進んでいるか手短に評価する指標として便利である。
image.png

FIDの参考リンク
Progressive/Big/StyleGANsの概要とGANsの性能評価尺度 - Qiita
https://qiita.com/kzykmyzw/items/5c4a6c2ee19ddd59e810

7
11
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
7
11