2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

ECCV2022の量子化論文 (2)

Posted at

概要

この記事では、ECCV2022の量子化論文を紹介します。1
その1

Symmetry Regularization and Saturating Nonlinearity for Robust Quantization

  • 概要:量子化後のロバスト性を上げる方法2つ(SymReg, SatNL)の提案
  • 新規性:量子化後のロバスト性を上げる方法でSOTA
  • キモ:
    1. 重みの分布が対称な方が量子化誤差の伝播が小さいと考え、Symmetry Regularizationロスを追加した。
      image.png
    2. 量子化のClamping functionの代わりにこのような緩和した関数とすることでロスを下げる。
      image.png
  • 評価:MobileNetV2等で実験した。3bit以下で効果あり。
    image.png

おまけ:上の論文からの引用論文

Robust Quantization: One Model to Rule Them All

  • 概要:KURE. ビット幅・量子化幅等のパラメータにロバストな量子化。2
  • 学会:NeurIPS2020
  • 研究機関:Intel
  • 新規性:量子化では重みの分布は正規分布より一様分布が良いことを初めて理論的に証明した。
  • キモ:重みの尖度(Kurt)が一様に近いことを制約に入れたロスを入れる。$\mathcal{K}_T$は一様分布の1.8とする。
    image.png
  • 評価:
    • MobileNet, RestNet, ImageNetで量子化精度劣化を調べた。
      image.png
    • 量子化を学習時と量子化後の推論時で変えた時の精度劣化を調べた。
      image.png

ASAM: Adaptive Sharpness-Aware Minimization for Scale-Invariant Learning of Deep Neural Networks

  • 概要:ASAM. (SAM)https://arxiv.org/abs/2010.01412の改良
  • 学会:ICML2022
  • 研究機関:Samsung
  • 新規性:SAMの、パラメータのスケーリングに弱い課題を解決する。
  • キモ:最適化ステップに正規化を入れる。
    image.png
  • 評価:画像や自然言語処理タスクでSAMと比較した。
    image.png
  1. 画像や数式は論文から引用しています。

  2. Float学習は量子化幅が非常に小さいケースと思うと、Floatからintに量子化する場合でも適用できる。

2
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?