0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Distillation Survey : Noisy Student

Posted at

Self-training with Noisy Student improves ImageNet classification

Abstract

現在までに(2020年)state-of-the artなモデルである"Noisy Student Training"を紹介します。
アイデアはself-trainingDistillationの拡張で、3つのノイズを加えて蒸留を複数回行うことで生徒モデルが教師モデルより優れた汎化性能を持つようになることを示す論文です。
なお、ここでのノイズは"Dropout", "Stochastic depth", "Data augmentation"を使用します。
論文はこちらを参照してください。

Introduction

state-of-the-art(SOTA)モデルはラベル付きデータを多く必要とするという問題が残されています。
そこで著者らは、SOTAモデルを得るために、ラベルなしデータを使用してself-trainingDistillationの組み合わせを使用することで汎化性能を高めようとしました。
ここで一般的なself-trainingDistillationと異なることが(1)生徒モデルを大きく(もしくは同等に)していくこと、(2)生徒モデルの学習時に学習データに対してノイズを付与すること、の2つです。
このような学習から生成された生徒モデルはImageNetで88.4%という結果を出しました(SOTAから2%向上)。またロバストなモデルであるとも主張されています。

Noisy Student Training

学習の流れは以下の通りです。

  1. ラベルあり学習データで教師モデルを最適化する
  2. 教師モデルによるラベルなしデータへのラベリング(ソフトラベルorハードラベル)
  3. ラベルあり学習データとラベルなし学習データを用いて生徒モデルを最適化
  4. 生徒モデルを教師モデルとして扱い、新しい生徒モデルに対しててステップ2,3を繰り返す。

この学習の中で、特徴となることは以下の2つです。

  • 生徒モデルの学習の際にノイズを加えること
  • 生徒モデルの規模は教師モデルと同じ、または大きいものを使用すること

Distillationを実装する際に、通常はノイズを加えず、また生徒モデルは教師モデルよりも小さいものを使用することが一般的です。
論文ではこの手法は「知識の拡張」と表現しています。生徒モデルに対して、厳しい学習環境と十分な容量を持たせることで、教師モデルの知識を拡張したより良い生徒モデルを作成することを目的としています。

実験では入力にノイズを付与するパターンとモデルにノイズを付与する2種類のノイズが使用されます。
入力に付与されるのノイズにはData AugmentationであるRandAugmentを使用しています。
RnadAugmentに関してはこの記事を読むといいかも。
モデルに付与されるノイズにはDropoutStochastic Depthが使用されます。
同様にこの記事を参照するといいかも。

また、論文中ではData filtering, Data balancingを使用すると更なる性能向上が見込めるといわれています。教師モデルが疑似ラベルを生成する時に、ドメイン外の信頼度が小さい画像に関しては、フィルタリングを行って学習に使用しないようにして、ラベルなし学習データとラベルあり学習データの分布が合致するようにラベルなしデータの量の調整を行っています。

疑似ラベルの生成はソフトなものとハードなもの両方が行われるが、ソフトラベルの方がドメイン外のラベルなしデータに対して、わずかに良い性能を出すらしいです。
以降の実験結果では全てソフトラベルを使用しています。

Experiments

Experiment Details

ラベル付きデータにはImageNetを使用し、ラベルなしデータにはJFTデータを使用しています。
始めに、ImageNetで学習されたEfficientNet-B0でJFTデータセットに対してラベリングを行い、その中で確信度が0.3以上の画像を選択します。
そして各クラスに対して、確信度が高い順に130K枚選択して疑似ラベルとします。この時に、130K枚選択できない場合は、ランダムに画像の複製を行って補充をしています(Data balancing)。

分類器のモデルとしては、EfficientNetsをベースラインとしています。学習時にはモデル規模をスケールアップさせる必要があるので、EfficientNetB-7を拡張したEfficientNetL-2を使用しています。

ImageNet Results

検証データセットに対してNoisyStudentSOTAのモデルよりも3.5%良い性能を獲得させました。
また、この3.5%のうち0.5%がモデルの大きさによるもので、2.9%がNoisyStudentによるものであると主張されています。

Robustness Results on ImageNet-A, ImageNet-C and ImageNet-P

まず初めにImageNet-A,C,Pとは堅牢性を測る指標となるデータセットです。
それぞれ以下のような特徴があります。

  • ImageNet-A : 性能を低下させるような分類の難しい画像のみで構成されているデータセット
  • ImageNet-C : 強いノイズ(破損など)が掛けられているデータセット
  • ImageNet-P : スケールが異なるようにノイズが掛けられているデータセット

これらのデータセットに対してテストを行った結果、Noisy StudentSOTAなモデルよりも優れて性能(堅牢性)を獲得させる結果となりました。

Adversarial Robustness Results

Noisy studentは高い分類性能と堅牢性を持つことが分かりました。
ここで、著者らはFGSM攻撃のような意図的に分類間違いを起こさせるような攻撃に対してのNoisy studentの性能を検証しています。
結果としてはNoisy Studentがそのような攻撃に対しても強いことが実験から示されました。
攻撃の度合いを増加させた場合、Noisy Studentは分類性能をわずかに減少させてしまうが、従来のモデルよりもその落ち幅は小さいようです。

Ablation Study

この章では、ノイズなどの学習手法を構成する様々な工夫の有効性を検証しています。

The Importance of Noise in Self-training

ここでは、ノイズの有効性を検証するために、studentに対して、ノイズを付加しないバージョンとノイズを一部付加するバージョン、ノイズをすべて付加するバージョンを比較しています。
結果としては、ノイズをすべて付加したい場合が最も性能の向上を図ることができています。

A Study of Iterative Training

ここでは、学習を繰り返すことの有効性を検証しています。
最初の教師モデルをEfficientNet-B7、生徒モデルをEfficientNet-L2として、Noisy Student Trainingを行っていきます。
結果としては、3回繰り返しを行ってその全ての場合で性能の向上を実現しました。

Additional Ablation Study Summarization

まとめると以下のようになります。

  1. 規模が大きく高性能な教師モデルを使用するとより良い性能を得ることができる
  2. 優れた性能を獲得するためには大量のラベルなしデータが必要である
  3. 特定の場合では、ソフトラベルの方がハードラベルよりも優れている
  4. Studentは規模が大きい方が優れたモデルを獲得できる
  5. Data balancingは小さいモデルに対して有効である
  6. ラベルなしデータとラベルありデータで学習する方がラベルなしで学習しファインチューニングするよりも優れている
  7. ラベルなしデータのバッチサイズとラベルありデータのバッチサイズの比率を大きくすることで性能が向上する
  8. Studentの初期値はランダムでもさほど性能に影響を与えない

Conclusion

  • ラベルなしデータを用いることで、画像の分類性能と堅牢性を高めることができた
  • ラベルなしデータに疑似ラベルを付与し学習を行うsemi-supervised trainingself-trainingの組み合わせが従来手法よりも優れている可能性がある
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?