SPECTRAL GRAPH THEORY (revised and improved)
スペクトル解析の範疇のグラフ理論
Graph-based Neural Networks
基礎的なグラフ理論やスペクトルグラフ理論、グラフ信号処理等
その他GCNの実装等まとめ
Laplacians and the Cheeger Inequality for Directed Graphs
有向グラフのグラフラプラシアンとCheeger Inequalityについて
Modeling Relational Data with Graph Convolutional Networks
有向グラフのネットワークをNNに落とし込むというもの。
ノード$i$に隣接するノード$j$に対し下記のような変換をする。
$\sigma$は何らかのアクチベーション、$h$は隠れ層のstate、$g_m$は何らかの変換である。
gm(·, ·) is typically chosen to be a (message-specific) neural network-like function or simply a linear transformation gm(hi , hj ) = W hj with a weight matrix W such as in Kipf and Welling (2017).
と書かれているので、SchlichtkrulはKipf のグラフコンボリューションに則り$g$を線形変換で表している。よって以下の式で表される。
そしてそれは以下の図に示される遷移を表している。
赤で示されたノード$i$に隣接するノード$j$に対し、向きを考慮した重みをかけて総和をとる(self-loopも含む)。$r$は赤方向、青方向等を定義する。微妙にわかりづらいがサメーションは第一項にしかかかっていない(慣例でカッコなしでも総和の範囲が及ぶ書き方もあるので、カッコを明示したほうが良いと思うが)。rの軸に0を、$j$の軸に$i$を追加すれば、右辺第二項は第一項に吸収されるため、単純な行列積になる。そのため(だと思う)、kipfのgithubリポジトリでは上記演算は単純な全結合で行われている(が、$r$が2つ以上場合$W$はランク3のテンソルになる)。
所感
カテゴリカルデータをダミー変数にするようなアプローチに感じた。$r$はカテゴリデータなので1,2,3のようにするとマルチコがおこるような。
RDF2Vec: RDF Graph Embeddings for Data Mining
データセットによってはR-GCNより良い性能
Dynamic Graph CNN for Learning on Point Clouds
ポイントクラウドの3Dデータのセグメンテーションに使用。edgeConvというコンボリューションを使用。