LoginSignup
1
0

【論文読み】自己条件付き画像生成: Representation-Conditioned Image Generation (RCG)

Last updated at Posted at 2023-12-08

この記事は京都大学人工知能研究会KaiRA Advent Calendar 2023 9日目の記事です。

今回は「Self-conditioned Image Generation via Generating Representations」という論文について取り上げます。

なお以下に掲載する図表は全て論文からの引用です。

概要

この論文では「自己条件付き画像生成(RCG; Representation-Conditioned image Generation)」のフレームワークを提案しています。以下に自己条件付き画像生成の概要図を示します。(a)まず画像を学習済みのEncoderによって低次元空間へと埋め込みます。(b)次に、その画像表現をDiffusion Modelによって学習し、ノイズから生成できるようにします。(c)その後、その画像表現を条件として画像をノイズから生成できるようにDiffusion Model等を学習させます。推論時には、画像表現も画像自体もノイズから生成することができます。

本論文ではこのフレームワークを用いることで、ImageNetのクラス条件無しでの画像生成においてFIDを3.31まで更新しました。従来SoTAはMAGEという手法の7.04であったため、非常に大きな更新となります。
また、このフレームワークではクラスラベルやテキストといったデータを必要とせず、人手でのアノテーションが不要になるため、アノテーションの質の問題から脱却することができるというメリットもあります。

手法

概要図を見るとわかるように、本手法はImage Encoder、Representation Generator、Pixel Generatorの3つのモデルから構成されます。

Image Encoderには学習済みのモデルを用いることにします。この論文では、表現学習のためのViTベースのモデルであるMoCo v3を用いています。このEncoderにより、画像は数百次元のベクトルへと変換されます。

Representation GeneratorとPixel Generatorの概要図を以下に示します。

Representation GeneratorはEncoderによって得られた低次元表現を生成するためのDiffusion Model (RDM; Representation Diffusion Model)です。扱うのは低次元のベクトルであるため、モデルのアーキテクチャには全結合層のみを用いています。学習は従来のDiffusion Modelと同じように行い、推論時にはDDIMによってサンプリングを行います。

Pixel Generatorは低次元表現を条件として画像を生成するモデルです。今回はここにMAGEというモデルを用いています。Diffusion Modelを使うことも考えられますが、Ablation Studyで述べられているようにMAGEを用いた場合が最もFIDが良かったため、MAGEを採用しています。

また、画像生成時にはClassifier-free guidanceを用いることが考えられます。クラス条件無しでの生成では、当然条件が存在しないためClassifier-free guidanceは使えませんでしたが、今回は画像表現が条件として与えられているため、クラス条件無し生成であってもClassifier-free guidanceが使えることになります。

実験

学習データには256×256サイズのImageNetを用いています。

定量評価

まずはGuidanceなしでの比較を以下に示します。クラス条件無し生成モデル(下段)ではがFID、ISともに従来手法を陵駕しています。また、クラス条件付き生成モデルと比較しても、同等かそれ以上のスコアになっていることがわかります。

次にGuidanceありでの比較を以下に示します。Guidanceを用いることで提案手法はFID、IS共に向上しています。従来の条件付き生成モデルもGuidance無しと比べてFID、IS共に大きく向上していますが、それでも提案手法はそうしたモデルに匹敵する結果を出しています。

また、Classifier-free guidanceのguidance強度についても調べており、強度を大きくするとFIDは僅かに悪化し、ISは上昇するようです。この結果は、Guidanceの一般的な挙動である「生成画像の品質を向上させ、多様性をより小さくする」という性質がそのまま表れているのかなぁと思います。

その他、論文では詳細なAblation Studyも行われています。

最後に計算時間の比較を示します。先ほどまでの結果を出していたモデルをRCG-Lとした上で、パラメータがより少ないRCG-Bも比較しています。また、学習時間も従来の200+800 epochsとしていたものをより少ないepoch数で学習させた場合も比較しています。なお、学習時間は64×V100での結果を示しています。
Representation Generatorの部分は半日以下で学習できるため、Pixel Generatorの部分のモデル(MAGE)と比べて学習時間は僅かに増加するも、FIDは向上していることになります。(LDM-8やADMでGuidanceを使った場合の結果が気になりますが…)

定性評価

以下が生成画像のサンプルです。何度も言うようにこれはクラス条件無しでの生成結果であり、非常に品質の良い画像が生成出来ていることがわかります。

また、画像表現を線形補間した時の生成結果も示されています。画像表現を補完することで生成画像の被写体も補間されています。離散的なクラスラベルではこうした補間は不可能であるため、画像表現が連続的であることがわかります。

感想

学習済みの条件無し生成モデルを使って条件付けて生成するような研究はGANの分野でいくつか見たことがあるので、その辺りの手法と組み合わせられると面白いなと思いました。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0