2
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

ICLR2022の量子化論文

Last updated at Posted at 2022-04-18

概要

この記事では、ICLR2022の量子化論文をまとめます。1

F8Net: Fixed-Point 8-bit Only Multiplication for Network Quantization

概要:F8Net. INT8量子化で、掛け算でINT32を使わず8bitで行う。
新規性:誤差をわずかに抑える固定小数点フォーマットを提案し、PACTを使った学習方法を提案した。
image.png
キモ:
固定小数点の分母のパラメータFCを、値の分散からこのように決める。
image.png
PACT(クリッピングしながら量子化学習)で学習する。
評価:ResNet, MobileNetでPACT, LSQ, HAWQ-V3などと比較した。

8-bit Optimizers via Block-wise Quantization

日本語解説:https://github.com/arXivTimes/arXivTimes/issues/2094

概要:状態を8bitで保持できるオプティマイザ。メモリ量削減や学習の高速化に寄与する。
研究機関:Facebook
新規性:状態を8bitで保持するオプティマイザは初。PyTorchで2行で使えるようにした。
キモ:Block-wize quantization. ブロックごとに量子化する。
image.png
評価:GLUE (RoBERTa), ImageNet (ResNet, MoCo v2)で実験した。

Toward Efficient Low-Precision Training: Data Format Optimization and Hysteresis Quantization

概要:低精度学習のためのデータフォーマット最適化
新規性:量子化学習のために、(1)量子化フォーマットの最適化方法 (2)歴史的情報も使うヒストリシス量子化 を提案した。
キモ:
(1) 指数部と仮数部をレイヤ毎に最適化する。
(2) 重みが増えるか減るかで丸めモードを変える。
image.png
評価:ResNet, MobileNet, Transformer等で実験した。

SQuant: On-the-Fly Data-Free Quantization via Diagonal Hessian Approximation

概要:SQuant. 高速・高精度なデータなし量子化 (Data-Free Quantization)
研究機関:Microsoft, Alibaba
新規性:従来のデータなし量子化より精度が良い。
キモ:量子化誤差を最小にするために重みのヘッシアンで最適化する。途中に表れる$E[x^l {x^l}^T]$を$E+K+C$(それぞれ、対角項、幅$K$の項、チャネル毎の項)で近似する。
image.png
評価:ResNet, ShuffleNet等で8bitで比較した。
image.png

Information Bottleneck: Exact Analysis of (Quantized) Neural Networks

概要:DNNを分析する方法。Information Bottleneck (IB)に関する。Information bottleneck principle は、DNNでは、レイヤの入出力の相互情報量で計算され、オーバーパラメータなDNNがなぜ汎化性能が高いかを説明するのに使われる。
新規性:IBの理論は、Floatの32bitのビンによる量子化誤差に起因するのではないかという意見に対して反論した。
キモ:DNNを量子化してIBを計算してもFloatと大体形が同じことから、量子化ビンの影響はないと主張した。

Float INT8
image.png image.png

QDrop: Randomly Dropping Quantization for Extremely Low-bit Post-Training Quantization

概要:QDROP. 超低ビット量子化の改善
新規性:2bit等の超低ビットだとPTQがうまくいかない傾向にある課題に対して、量子化に対するactivationの摂動の影響を始めて調べた。
それに基づいて、ランダムに量子化をやめるQDROPを提案した。
キモ:Activationの量子化誤差の摂動をランダムに落としながら量子化学習する。
image.png
評価:ImageNet, COCO, GLUEで実験した。

  1. 画像や数式は論文から引用しています。

2
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?