0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

【今日のアブストラクト】The Impact of Neural Network Overparameterization on Gradient Confusion and Stochastic Gradient Descent【論文 DeepL 翻訳】

Posted at

1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.

この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.

翻訳元
The Impact of Neural Network Overparameterization on Gradient Confusion and Stochastic Gradient Descent

Abstract

訳文

本論文では, ニューラルネットワークのアーキテクチャが訓練の速度にどのように影響するかを研究する. これを正式に分析するために, 勾配の混乱 (gradient confusion) と呼ばれる簡単な概念を導入する. 混乱が高い場合, 異なるデータサンプルによって生成される確率的な勾配が負の相関を持ち, 収束が遅くなることがある. しかし, 勾配の混乱が低い場合には, データサンプルは調和的に相互作用し, 訓練は迅速に進行する. 新しい理論と実験結果を用いて, ニューラルネットのアーキテクチャが勾配の混乱にどのように影響を与え, その結果, 訓練の効率に影響を与えるかを示す. 深層学習で使用される一般的な初期化手法では, ニューラルネットワークの幅を大きくすると, 勾配の混乱が減少し, モデルの訓練が容易になることを示す. 一方, ニューラルネットワークの深さを大きくすると逆の効果がある. さらに, 直交初期化を用いた場合, 線形ニューラルネットワークでは初期の学習ダイナミクスが深さに依存しないことを示し, 深層学習モデルの学習の進め方を示唆している. 最後に, バッチ正規化とスキップ接続を組み合わせることで, 勾配の混乱が減少し, ガウス初期化を用いた非常に深いネットワークの訓練負担が軽減されることを観察した.

原文

In this paper we study how neural network architecture affects the speed of training. We introduce a simple concept called gradient confusion to help formally analyze this. When confusion is high, stochastic gradients produced by different data samples may be negatively correlated, slowing down convergence. But when gradient confusion is low, data samples interact harmoniously, and training proceeds quickly. Through novel theoretical and experimental results, we show how the neural net architecture affects gradient confusion, and thus the efficiency of training. We show that for popular initialization techniques used in deep learning, increasing the width of neural networks leads to lower gradient confusion, and thus easier model training. On the other hand, increasing the depth of neural networks has the opposite effect. Further, when using orthogonal initialization, we show that the training dynamics early on become independent of the depth for linear neural networks, suggesting a way forward for training deep models. Finally, we observe that the combination of batch normalization and skip connections reduces gradient confusion, which helps reduce the training burden of very deep networks with Gaussian initializations.

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?