0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Rigging the Lottery: Making All Tickets Winners 【5 Discussion & Conclusion】【論文 DeepL 翻訳】

Last updated at Posted at 2020-07-26

この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.

翻訳元
Rigging the Lottery: Making All Tickets Winners

前: 【4 Empirical Evaluation】
次: ないよ

5 Discussion & Conclusion

訳文

本研究では, スパースなニューラルネットワークを効率的に学習するためのアルゴリズムである ‘Rigged Lottery’ (RigL) を紹介する. 与えられた計算予算に対して, RigL は既存の密からスパースへ, スパースからスパースへの訓練アルゴリズムよりも高い精度を達成する. RigL は3つの異なるシナリオで有用である. (1) 配備を目的としたスパースなモデルの精度向上, (2) 限られたイテレーション数しか訓練できない大規模でスパースなモデルの精度向上, (3) スパースプリミティブと組み合わせて, 通常では不可能な大規模でスパースなモデルの訓練を可能にする.

第3のシナリオは, ハードウェアおよびソフトウェアによる sparsity のサポートが不足しているため, 未踏のシナリオである. それにもかかわらず, 現在のハードウェア上でのスパースネットワークの性能を向上させる作業が続けられており (Hong et al., 2019; Merrill & Garland, 2016), 新しいタイプのハードウェアアクセラレータは, パラメータの sparsity をより良くサポートするようになるだろう (Wang et al., 2018; Mike Ashby, 2019; Liu et al., 2018; Han et al., 2016a; Chen et al., 2019). RigL は, そのような進歩を利用するためのツールを提供し, そのためのモチベーションを提供する.

原文

In this work we introduced ‘Rigged Lottery’ or RigL, an algorithm for training sparse neural networks efficiently. For a given computational budget RigL achieves higher accuracies than existing dense-to-sparse and sparse-to-sparse training algorithms. RigL is useful in three different scenarios: (1) To improve the accuracy of sparse models intended for deployment; (2) To improve the accuracy of large sparse models which can only be trained for a limited number of iterations; (3) Combined with sparse primitives to enable training of extremely large sparse models which otherwise would not be possible.

The third scenario is unexplored due to the lack of hardware and software support for sparsity. Nonetheless, work continues to improve the performance of sparse networks on current hardware (Hong et al., 2019; Merrill & Garland, 2016), and new types of hardware accelerators will have better support for parameter sparsity (Wang et al., 2018; Mike Ashby, 2019; Liu et al., 2018; Han et al., 2016a; Chen et al., 2019). RigL provides the tools to take advantage of, and motivation for, such advances.

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?