LoginSignup
1
2

More than 5 years have passed since last update.

割りとわかりやすい

SPECTRAL GRAPH THEORY (revised and improved)

スペクトル解析の範疇のグラフ理論

Graph-based Neural Networks

基礎的なグラフ理論やスペクトルグラフ理論、グラフ信号処理等
その他GCNの実装等まとめ

Laplacians and the Cheeger Inequality for Directed Graphs

有向グラフのグラフラプラシアンとCheeger Inequalityについて

Modeling Relational Data with Graph Convolutional Networks

有向グラフのネットワークをNNに落とし込むというもの。
ノード$i$に隣接するノード$j$に対し下記のような変換をする。

image.png (13.2 kB)

$\sigma$は何らかのアクチベーション、$h$は隠れ層のstate、$g_m$は何らかの変換である。

gm(·, ·) is typically chosen to be a (message-specific) neural network-like function or simply a linear transformation gm(hi , hj ) = W hj with a weight matrix W such as in Kipf and Welling (2017).

と書かれているので、SchlichtkrulはKipf のグラフコンボリューションに則り$g$を線形変換で表している。よって以下の式で表される。

image.png (18.5 kB)

そしてそれは以下の図に示される遷移を表している。

image.png (61.6 kB)

赤で示されたノード$i$に隣接するノード$j$に対し、向きを考慮した重みをかけて総和をとる(self-loopも含む)。$r$は赤方向、青方向等を定義する。微妙にわかりづらいがサメーションは第一項にしかかかっていない(慣例でカッコなしでも総和の範囲が及ぶ書き方もあるので、カッコを明示したほうが良いと思うが)。rの軸に0を、$j$の軸に$i$を追加すれば、右辺第二項は第一項に吸収されるため、単純な行列積になる。そのため(だと思う)、kipfのgithubリポジトリでは上記演算は単純な全結合で行われている(が、$r$が2つ以上場合$W$はランク3のテンソルになる)。

所感

カテゴリカルデータをダミー変数にするようなアプローチに感じた。$r$はカテゴリデータなので1,2,3のようにするとマルチコがおこるような。

RDF2Vec: RDF Graph Embeddings for Data Mining

データセットによってはR-GCNより良い性能

Dynamic Graph CNN for Learning on Point Clouds

image.png (146.0 kB)

ポイントクラウドの3Dデータのセグメンテーションに使用。edgeConvというコンボリューションを使用。

1
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
2