1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
Abstract
訳文
本論文では, ニューラルネットワークのアーキテクチャが訓練の速度にどのように影響するかを研究する. これを正式に分析するために, 勾配の混乱 (gradient confusion) と呼ばれる簡単な概念を導入する. 混乱が高い場合, 異なるデータサンプルによって生成される確率的な勾配が負の相関を持ち, 収束が遅くなることがある. しかし, 勾配の混乱が低い場合には, データサンプルは調和的に相互作用し, 訓練は迅速に進行する. 新しい理論と実験結果を用いて, ニューラルネットのアーキテクチャが勾配の混乱にどのように影響を与え, その結果, 訓練の効率に影響を与えるかを示す. 深層学習で使用される一般的な初期化手法では, ニューラルネットワークの幅を大きくすると, 勾配の混乱が減少し, モデルの訓練が容易になることを示す. 一方, ニューラルネットワークの深さを大きくすると逆の効果がある. さらに, 直交初期化を用いた場合, 線形ニューラルネットワークでは初期の学習ダイナミクスが深さに依存しないことを示し, 深層学習モデルの学習の進め方を示唆している. 最後に, バッチ正規化とスキップ接続を組み合わせることで, 勾配の混乱が減少し, ガウス初期化を用いた非常に深いネットワークの訓練負担が軽減されることを観察した.
原文
In this paper we study how neural network architecture affects the speed of training. We introduce a simple concept called gradient confusion to help formally analyze this. When confusion is high, stochastic gradients produced by different data samples may be negatively correlated, slowing down convergence. But when gradient confusion is low, data samples interact harmoniously, and training proceeds quickly. Through novel theoretical and experimental results, we show how the neural net architecture affects gradient confusion, and thus the efficiency of training. We show that for popular initialization techniques used in deep learning, increasing the width of neural networks leads to lower gradient confusion, and thus easier model training. On the other hand, increasing the depth of neural networks has the opposite effect. Further, when using orthogonal initialization, we show that the training dynamics early on become independent of the depth for linear neural networks, suggesting a way forward for training deep models. Finally, we observe that the combination of batch normalization and skip connections reduces gradient confusion, which helps reduce the training burden of very deep networks with Gaussian initializations.