1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
Image-to-Image Translation with Conditional Adversarial Networks
Abstract
訳文
本研究では, 画像から画像への変換問題の汎用的な解決法として, 条件付き逆説ネットワークを検討している. このネットワークは, 入力画像から出力画像への写像を学習するだけでなく, この写像を学習するための損失関数も学習する. これにより, 従来は全く異なる損失定式化を必要としていた問題にも, 同じ汎用的なアプローチを適用することが可能となる. このアプローチは, ラベルマップからの写真の合成, エッジマップからの物体の再構成, 画像の色付けなどに有効であることを示す. 実際, この論文に関連したソフトウェア pix2pix が公開されて以来, 多くのインターネットユーザー (多くはアーティスト) が私たちのシステムを使った実験を投稿しており, パラメータを調整する必要がなく, 適用範囲が広く, 導入しやすいことが実証されている. コミュニティとして, 我々はもはや写像関数を手作業で設計する必要はなく, さらに本研究では, 損失関数を手作業で設計することなく妥当な結果を得ることもできることを示唆している.
原文
We investigate conditional adversarial networks as a general-purpose solution to image-to-image translation problems. These networks not only learn the mapping from input image to output image, but also learn a loss function to train this mapping. This makes it possible to apply the same generic approach to problems that traditionally would require very different loss formulations. We demonstrate that this approach is effective at synthesizing photos from label maps, reconstructing objects from edge maps, and colorizing images, among other tasks. Indeed, since the release of the pix2pix software associated with this paper, a large number of internet users (many of them artists) have posted their own experiments with our system, further demonstrating its wide applicability and ease of adoption without the need for parameter tweaking. As a community, we no longer hand-engineer our mapping functions, and this work suggests we can achieve reasonable results without hand-engineering our loss functions either.