1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
Creating High Resolution Images with a Latent Adversarial Generator
Abstract
訳文
現実的な画像を生成することは難しく, 最近では多くの定式化が提案されている. しかし, ある特定のクラスの画像を生成することに限定すると, このタスクはより扱いやすくなる. すなわち, 自然画像の多様体から任意の画像をサンプルとして生成するのではなく, 自然画像の特定の "部分空間" から, 同じ部分空間の低解像度画像を用いて画像をサンプルとして生成することを提案する. 我々が扱う問題は, 単一画像の超解像問題の定式化に近いものだが, 実際にはかなり異なっている. 単一画像超解像問題は, 比較的低解像度の画像から最も基底真実 (ground truth) に近い画像を予測する問題である. Latent Adversarial Generator (LAG) と呼ばれる新しい手法を用いて, 非常に小さな入力を与えられた高解像度画像のサンプルを生成することを提案する. 我々の生成的サンプリングフレームワークでは, ネットワークが生成すべきサンプルのクラスを指示するために, (おそらく非常に低解像度の) 入力のみを使用する. そのため, 我々のアルゴリズムの出力は, 入力に関連するユニークな画像ではなく, 自然画像の多様性からサンプリングされた関連画像の可能性のあるセットである. 我々の手法は, 知覚損失を用いて敵対者の潜在空間のみで学習する.
原文
Generating realistic images is difficult, and many formulations for this task have been proposed recently. If we restrict the task to that of generating a particular class of images, however, the task becomes more tractable. That is to say, instead of generating an arbitrary image as a sample from the manifold of natural images, we propose to sample images from a particular "subspace" of natural images, directed by a low-resolution image from the same subspace. The problem we address, while close to the formulation of the single-image super-resolution problem, is in fact rather different. Single image super-resolution is the task of predicting the image closest to the ground truth from a relatively low resolution image. We propose to produce samples of high resolution images given extremely small inputs with a new method called Latent Adversarial Generator (LAG). In our generative sampling framework, we only use the input (possibly of very low-resolution) to direct what class of samples the network should produce. As such, the output of our algorithm is not a unique image that relates to the input, but rather a possible set of related images sampled from the manifold of natural images. Our method learns exclusively in the latent space of the adversary using perceptual loss -- it does not have a pixel loss.