0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

【今日のアブストラクト】Deep Residual Learning for Image Recognition【論文 ほぼ Google 翻訳 自分用】

Posted at

1 日 1 回 (努力目標) 論文の Abstract を Google 翻訳の力を借りて読んでいきます.

この記事は自分用のメモみたいなものです.
ほぼ Google 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.

翻訳元
Deep Residual Learning for Image Recognition

Abstract

訳文

より深いニューラルネットワークは, トレーニングがより困難です. 以前に使用されていたものよりもかなり深いネットワークのトレーニングを容易にするための残差学習フレームワークを提示します. 参照されない関数を学習する代わりに, レイヤー入力を参照して残差関数を学習するようにレイヤーを明示的に再定式化します. これらの残差ネットワークは最適化が容易であり, 深さが大幅に増加することで精度が向上することを示す包括的な経験的証拠を提供します. ImageNet データセットでは, 最大 152 層の深さの残差ネットを評価します. これは, VGG ネットの 8 倍の深さですが, 複雑さは低くなっています. これらの残差ネットのアンサンブルは, ImageNet テストセットで 3.57% のエラーを達成します. この結果は, ILSVRC 2015 分類タスクで 1 位になりました. また, 100 および 1000 層の CIFAR-10 の分析も示します.
表現の深さは, 多くの視覚認識タスクにとって最も重要です. 表現が非常に深いため, COCO オブジェクト検出データセットで 28% の相対的な改善が得られています. Deep residual nets は, ILSVRC & COCO 2015 コンテストへの我々の提出の基礎であり, ImageNet 検出, ImageNet ローカリゼーション, COCO 検出, および COCO セグメンテーションのタスクで 1 位を獲得しました.

原文

Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions with reference to the layer inputs, instead of learning unreferenced functions. We provide comprehensive empirical evidence showing that these residual networks are easier to optimize, and can gain accuracy from considerably increased depth. On the ImageNet dataset we evaluate residual nets with a depth of up to 152 layers---8x deeper than VGG nets but still having lower complexity. An ensemble of these residual nets achieves 3.57% error on the ImageNet test set. This result won the 1st place on the ILSVRC 2015 classification task. We also present analysis on CIFAR-10 with 100 and 1000 layers.
The depth of representations is of central importance for many visual recognition tasks. Solely due to our extremely deep representations, we obtain a 28% relative improvement on the COCO object detection dataset. Deep residual nets are foundations of our submissions to ILSVRC & COCO 2015 competitions, where we also won the 1st places on the tasks of ImageNet detection, ImageNet localization, COCO detection, and COCO segmentation.

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?