LoginSignup
22
12

More than 5 years have passed since last update.

PyTorch で拡散シミュレーション

Last updated at Posted at 2018-01-30

なぜこんなことを・・・?

  • 拡散のシミュレーションがやりたい!
  • PyTorch を使えるようになりたい!

という2つの動機の単純な帰結としてそうなった・・・わけではなく、実はすごく理にかなった選択なのです。・・・本当です。信じてください。

ともあれ、終わってみて考えると、 PyTorch の基本に一通り触れることができ、チュートリアルとして良さそうに思います。私も始めたばかりなのですが、興味がある人はぜひ見てみてください。

  • PyTorch でのデータの扱い方
  • GPU の使い方
  • 畳み込み
  • 結果が見れてわかりやすい
  • なんと動画までつくれる

アイデア

インクでイメージ

difele.png

$t=0$ で水中にインクを落としたとします。次の時刻 $t=1$ では、インクは拡散し、元の位置よりも広がりをもって分布します。

では、もし2ヶ所にインクを落としたらどうなるでしょうか? 時間が経つと、それぞれが同じように広がります。

水中全体にインクがあっても全く同じように捉えることができます。時間が経つと、それぞれの位置でインクが周りに広がり、結果としてインクの濃度分布が変化します。

結局どうやるの?

拡散のシミュレーションをするにあたって考えねばならないことが2つあります。

まず、インクがどのように広がるかということですが、実は正規分布と同じ形になります。

拡散方程式の解と粒子数の時間変化
http://statmodeling.hatenablog.com/entry/diffusion-equation-1

ある場所でのインク分子は、次の時刻ではベルカーブ状に周囲に分配されます。逆に、ある場所でのインク分子の量は、前の時刻での周囲のインク分子をベルカーブの重みでたし合わせたものになります。

次に、すべての点で濃度変化を計算しなければなりませんが、計算方法を単純に表現すると、「インク濃度に重みをかけて足し合わせる」ことになります。これは畳み込み演算そのもので、 PyTorch などの深層学習ライブラリの得意とするものです。

実装時の Tips

コードはここにあるので、気になる人はどうぞ
https://nbviewer.jupyter.org/github/Lirimy/simulation/blob/master/diffusion.ipynb (notebook viewer)
修正していて、以下の記述と異なるところもあります

CPU と GPU の切り替え方

コメントアウトでデータ型を設定しておいて、テンソル作成時に適用すればよい

#dtype = torch.FloatTensor # CPU
dtype = torch.cuda.FloatTensor # GPU

tensor = torch.Tensor(...).type(dtype)

NumPy データで畳み込みするには?

PyTorch での2次元畳み込みで利用するデータ形式は4次元 Variable
そこで、NumPy データを順番に変換していく

  1. NumPy 行列 x (2次元)をつくる
  2. [[x]]で4次元にする
  3. torch.Tensor(...) でTensor型にする
  4. Variable(...) でラップする
import numpy as np
import torch
from torch.autograd import Variable

x = np.zeros((10, 10)) # 2-D numpy matrix
x = Variable(torch.Tensor([[x]]).type(dtype), requires_grad=False)

ちなみに増えた2次元は、

  • バッチ内でのデータ番号
  • チャンネル

今回はどちらも使わない

GPU での計算結果にアクセスするには?

上でやったことの逆をたどる

  1. _.data で Variable 内の Tensor にアクセス
  2. _.cpu() で GPU からデータを転送
  3. _.numpy() で Tensor から NumPy に変換
  4. _[0, 0] で4次元(ダミー)から2次元に

この操作で2次元 NumPy 行列が得られる

x # Variable containing torch.cuda.FloatTensor
x_np = x.data.cpu().numpy()[0, 0]

パディングオプションでの注意

畳み込み F.conv2d のオプション padding=m としたときに、 m は厳密に int でなければなりません。
float などもってのほか、 np.int ですら許してもらえません。

import torch.nn.functional as F

m = int(m) # DO THIS
y = F.conv2d(x, w, padding=m)

シミュレーションの結果

拡散の様子(アニメーション)

anim.gif

畳み込みで0パディングしているため、境界から媒質が流出している

参考

matplotlibでアニメーション
https://qiita.com/chez_sugi/items/93ff2efad50f16bc8c37

matplotlibのanimation.FuncAnimationを用いて柔軟にアニメーション作成
https://qiita.com/AnchorBlues/items/3acd37331b12e844d259

Jupyterでmatplotlibのjavascriptアニメーションを動かす
https://qiita.com/yoku_001/items/11ac4ad1df349095655c

パフォーマンス測定

CPU と GPU のパフォーマンスの違いを知りたい

2次元畳み込みに要する実時間を測定した
Jupyter の %%timeit がとても便利

条件

  • グリッドサイズ $n=200$
  • 変換行列サイズ $2m+1=47$
  • パディング $m=23$
  • 繰り返し 100 回

$(246, 246)$ 行列と $(47, 47)$ 行列を畳み込むことになる
$ m=23 $ が中途半端なのは、標準偏差 $ \sigma=10 $ から自動的に決まった値だから

環境

  • i5-2500K
  • GTX 980

結果

  • CPU 9-10 sec
  • GPU 6-10 msec

GPU のほうが 1000 倍速い!

まとめ

  • 正規分布の畳み込みで拡散シミュレーションができる!
  • 畳み込みといったら PyTorch !!! (別に TensorFlow とかでもよい)
  • GPU はすごい!
  • アニメーションを見るのはたのしー!

編集履歴

2018.1.30 初版
2018.2.2 Javascript アニメーションを追加

22
12
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
22
12