Help us understand the problem. What is going on with this article?

機械学習論文読みメモ_138

More than 1 year has passed since last update.

Meta-Learning and Universality: Deep Representations and Gradient Descent can Approvimate any Learning Algorithm
Learning to learn、あるいはmeta-learningはデータから効率的に学習を行うために重要である。
従来手法で一般的なのは、recurrent modelとして学習データを入力、学習済みモデルのパラメータまたは新しいデータに対する予測結果を出力するものがある。
また他にも、効率的なfinutuningを実現するためのdeep representationを獲得させる手法も存在する。
本論ではこうしたmeta learningをuniversalityの観点から捉える。
ここでは、learning algorithm approximationという指標を導入し、
それに基づき、従来手法の表現能力を比較した。
この比較を通して、deep representationとSGDの組み合わせで十分に任意の
アルゴリズムを近似できる事を確認した。

CycleGAN, a Master of Steganography
CycleGANは2つの画像分布間の関係を学習可能な最新の成功モデルである。
本論ではCycleGANの持つ新たな特性について述べる。
それはCycleGANはsource imageに関する情報を生成された画像の中に隠す事である。
この情報を利用する事でCycleGANは再構成誤差を最小化する事ができる。
この事実を通して見ると、CycleGANは敵対的サンプルを生成できるモデルと考えられる。

Learning Wasserstein Embeddings
Wasserstein distanceは分布間の距離を求める指標として注目を集めてきた。
しかしながら未だ高い計算コストが課題である。
本論では近似手法を用い、その複雑さを和らげる事ができる。
提案手法はEuclidean distanceがWasserstein distanceを近似するような埋め込みを学習する。
ネットワークはsiamese architectureを採用し、特徴空間上の2サンプル間の距離が
Wasserstein距離に一致するように最適化を行う。

Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away