1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

【今日のアブストラクト】Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification【論文 ほぼ Google 翻訳 自分用】

Posted at

1 日 1 回 (努力目標) 論文の Abstract を Google 翻訳の力を借りて読んでいきます.

この記事は自分用のメモみたいなものです.
ほぼ Google 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.

翻訳元
Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification

Abstract

訳文

整流された活性化ユニット(整流器)は, 最先端のニューラルネットワークに不可欠です. この作業では, 2 つの側面から画像分類のための整流器ニューラルネットワークを研究します. 最初に, 従来の整流ユニットを一般化するパラメトリック整流線形ユニット (PReLU) を提案します. PReLU は, 追加の計算コストがほとんどゼロであり, オーバーフィットのリスクがほとんどなく, モデルフィッティングを改善します. 次に, 整流器の非線形性を特に考慮した堅牢な初期化方法を導き出します. この方法により, 非常に深く整流されたモデルを最初から直接トレーニングし, より深いまたはより広いネットワークアーキテクチャを調査できます. PReLU ネットワーク (PReLU-nets) に基づいて, ImageNet 2012 分類データセットで 4.94% のトップ 5 テストエラーを達成しました. これは, ILSVRC 2014 の勝者 (GoogLeNet, 6.66%) に対して 26% の相対的な改善です.

原文

Rectified activation units (rectifiers) are essential for state-of-the-art neural networks. In this work, we study rectifier neural networks for image classification from two aspects. First, we propose a Parametric Rectified Linear Unit (PReLU) that generalizes the traditional rectified unit. PReLU improves model fitting with nearly zero extra computational cost and little overfitting risk. Second, we derive a robust initialization method that particularly considers the rectifier nonlinearities. This method enables us to train extremely deep rectified models directly from scratch and to investigate deeper or wider network architectures. Based on our PReLU networks (PReLU-nets), we achieve 4.94% top-5 test error on the ImageNet 2012 classification dataset. This is a 26% relative improvement over the ILSVRC 2014 winner (GoogLeNet, 6.66%). To our knowledge, our result is the first to surpass human-level performance (5.1%, Russakovsky et al.) on this visual recognition challenge.

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?