0
0

【論文メモ】Extracting Low-/High- Frequency Knowledge from Graph Neural Networks and Injecting It into MLPs: An Effective GNN-to-MLP Distillation Framework

Posted at

この論文を読んだ理由

GNN-to-MLPの知識蒸留(KD)手法をサーベイしている際に見つけた論文.
GLNN(Graph-Less Neural Network)を発展させた手法であるから.

解いている課題

  • タスク:ノード分類

  • 既存のGNN-to-MLPでの知識蒸留で,蒸留される知識と蒸留されない知識を分析
    $\rightarrow$低周波情報は蒸留されやすく,高周波情報は蒸留されにくいことを発見

    以下,自分の理解
    低周波情報:グラフ全体で変化する情報$\rightarrow$ GNNの出力(全体)という情報
    高周波情報:グラフの局所的な部分で変化する情報$\rightarrow$ 局所構造の情報(隣接ノード同士で特徴量がどれくらい変わるか

    GLNNでは,MLPの出力をGNNの出力に似せていたので,これは低周波情報を使っていることになる.
    $\rightarrow$この論文では,高周波成分も蒸留させて精度を高める

提案手法のアプローチ

image.png

  • GLNNで用いられていない高周波情報(隣接ノード間の相対的な情報)を使う

  • 損失関数

    • 低周波情報のロス,$z$はMLPの出力,$h$はMLPの出力,$\tau_1$は温度パラメータ
      $$
      L_{\text{LFD}} = \frac{1}{|\mathcal{E}|} \sum_{i \in \mathcal{V}} \sum_{j \in \mathcal{N}i, u_i} D_{\text{KL}}\left( \sigma \left( \frac{z_j^{(L)}}{\tau_1} \right), \sigma \left( \frac{h_i^{(L)}}{\tau_1} \right) \right)
      $$
      $\rightarrow$これはGLNNと同様に,GNNの出力に似せることを目的としている

    • 高周波情報のロス,$\tau_2$は温度パラメータ,$N_i$は隣接ノード集合
      \mathcal{K}(s_i, s_j) = |s_i - s_j|
      
      L_{\text{HFD}} = \frac{1}{|\mathcal{E}|} \sum_{i \in \mathcal{V}} \sum_{j \in \mathcal{N}i} D_{\text{KL}}\left( \sigma \left( \mathcal{K} (z_j^{(L)}, z_j^{(L)})/\tau_2 \right), \sigma \left( \mathcal{K} (h_i^{(L)}, h_j^{(L)})/\tau_2 \right) \right)
      
      $\rightarrow$GNNにおける隣接ノードとの特徴量の差を似せる,局所構造を捉えるためのロス

    • 全体のロス関数,$\lambda$はバランスパラメータ
      L_{\text{total}} = \frac{\lambda}{|\mathcal{V}_L|} \sum_{i \in \mathcal{V}_L} \mathcal{H} (y_i, \sigma (h_i^{(L)})) + (1 - \lambda) \left( L_{\text{LFD}} + L_{\text{HFD}} \right)
      
      $\rightarrow$クロスエントロピーロスと知識蒸留のロスを組み合わせる

実験結果

  • ノード分類でGCNやGLNNより高い精度を発揮
    image.png

  • 高周波成分のロスによって,ノード間の相対距離も保たれている
    image.png
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0