DNC (Differentiable Neural Computers) の概要 + Chainer による実装

  • 312
    いいね
  • 0
    コメント

こんにちは.@yos1up と申します.好きな食べ物は,緑色のキノコです.

2016/10/12に DeepMind が Nature に投稿した論文,Hybrid computing using a neural network with dynamic external memory にて提案されているニューラルネットワークモデル DNC (Differentiable Neural Computers) を,大急ぎで Chainer で実装してみました.

DNC について

DNC は,先述の論文で提案された新しいニューラルネットワークで,その情報処理能力の高さが期待されています.論文中では,グラフ上の最短経路タスクやちょっとしたパズルのタスクなど,従来ニューラルネットワークでは学習不可能と思われていたタスクが DNC で学習できており,その情報処理能力の高さがうかがい知れます.

DNC は,RNN(リカレントニューラルネットワーク)に「メモリ」がくっついた構造をしています.この「メモリ」には,情報を読み出すヘッドと書き込むヘッドがついており,ヘッドを(限られた方法に従って)動かしたり,ヘッドの位置の情報を読み込んだり,書き込んだりすることが自在にできます.

通常の RNN は,毎時刻において,何らかの外部入力を受け取り,何らかの出力を行います(そして内部状態が更新されます).一方,DNC 内の RNN は,毎時刻において,通常の外部入力に加えて「直前の時刻に『メモリ』から読み出したデータ」を受け取ります.そして,通常の出力に加えて「『メモリ』の操作指示」を併せて出力します.この操作指示に従って,メモリのヘッドの位置が変化し,書き込みヘッドの位置のメモリが書き換わり,読み出しヘッドの位置のメモリが読み出されます.読み出されたデータは,次の時刻において RNN に(通常の外部入力と併せて)入力されます.

DNC 内の RNN は,この「メモリ」という小道具を与えられた状況で,適切な入出力関係が実現されるように,結合加重を(勾配法で)学習していきます.この小道具を如何に使うか(あるいは使わないか)は,学習次第で変わってきます.

「ヘッドの付いたメモリ」という特殊な形式をしているものの,RNN の「内部状態」には違いなく,そういう意味で DNC は,GRU や LSTM の延長にある「内部状態が著しく複雑になった RNN」だといえます1.この「メモリ」が付いたおかげで,従来のRNNでは扱えなかった複雑な情報処理が DNC では実現可能となっています.

また,あらゆる種類の情報処理を行う際にそこそこ便利と思われる「ヘッドの付いたメモリ」が備わっていることにより,DNC にはあらゆるタイプのタスクをそれなりにこなせる汎用性が生じているのではないかと個人的に期待しています.論文中で DNC が解いているタスクのジャンルが多岐にわたっていることも,汎用性の高さを期待させます.

なお,彼らが 2014 年 12 月に提案した NTM (Neural Turing Machine) というニューラルネットワークも今回の DNC と類似の構造をしていますが,DNC は NTM よりもメモリのヘッドの動かせ方がより合理的になった点でパワーアップしています.(論文中の Methods 中に NTM と DNC の違いについてまとまった箇所があります.)

実装

今回実装したコード (Python 2.7) を以下に示します.(GitHub)

main.py
import numpy as np
import math
import chainer
from chainer import functions as F
from chainer import links as L
from chainer import \
     cuda, gradient_check, optimizers, serializers, utils, \
     Chain, ChainList, Function, Link, Variable


def onehot(x,n):
    ret = np.zeros(n).astype(np.float32)
    ret[x] = 1.0
    return ret

def overlap(u, v): # u, v: (1 * -) Variable  -> (1 * 1) Variable
    denominator = F.sqrt(F.batch_l2_norm_squared(u) * F.batch_l2_norm_squared(v))
    if (np.array_equal(denominator.data, np.array([0]))):
        return F.matmul(u, F.transpose(v))
    return F.matmul(u, F.transpose(v)) / F.reshape(denominator,(1,1))


def C(M, k, beta):
    # (N * W), (1 * W), (1 * 1) -> (N * 1)
    # (not (N * W), ({R,1} * W), (1 * {R,1}) -> (N * {R,1}))
    W = M.data.shape[1]    
    ret_list = [0] * M.data.shape[0]
    for i in range(M.data.shape[0]):
        ret_list[i] = overlap(F.reshape(M[i,:], (1, W)), k) * beta # pick i-th row
    return F.transpose(F.softmax(F.transpose(F.concat(ret_list, 0)))) # concat vertically and calc softmax in each column



def u2a(u): # u, a: (N * 1) Variable
    N = len(u.data)
    phi = np.argsort(u.data.reshape(N)) # u.data[phi]: ascending
    a_list = [0] * N    
    cumprod = Variable(np.array([[1.0]]).astype(np.float32)) 
    for i in range(N):
        a_list[phi[i]] = cumprod * (1.0 - F.reshape(u[phi[i],0], (1,1)))
        cumprod *= F.reshape(u[phi[i],0], (1,1))
    return F.concat(a_list, 0) # concat vertically



class DeepLSTM(Chain): # too simple?
    def __init__(self, d_in, d_out):
        super(DeepLSTM, self).__init__(
            l1 = L.LSTM(d_in, d_out),
            l2 = L.Linear(d_out, d_out),)
    def __call__(self, x):
        self.x = x
        self.y = self.l2(self.l1(self.x))
        return self.y
    def reset_state(self):
        self.l1.reset_state()



class DNC(Chain):
    def __init__(self, X, Y, N, W, R):
        self.X = X # input dimension
        self.Y = Y # output dimension
        self.N = N # number of memory slot
        self.W = W # dimension of one memory slot
        self.R = R # number of read heads
        self.controller = DeepLSTM(W*R+X, Y+W*R+3*W+5*R+3)

        super(DNC, self).__init__(
            l_dl = self.controller,
            l_Wr = L.Linear(self.R * self.W, self.Y) # nobias=True ? 
            )# <question : should all learnable weights be here??>
        self.reset_state()
    def __call__(self, x):
        # <question : is batchsize>1 possible for RNN ? if No, I will implement calculations without batch dimension.>
        self.chi = F.concat((x, self.r))
        (self.nu, self.xi) = \
                  F.split_axis(self.l_dl(self.chi), [self.Y], 1)
        (self.kr, self.betar, self.kw, self.betaw,
         self.e, self.v, self.f, self.ga, self.gw, self.pi
         ) = F.split_axis(self.xi, np.cumsum(
             [self.W*self.R, self.R, self.W, 1, self.W, self.W, self.R, 1, 1]), 1)

        self.kr = F.reshape(self.kr, (self.R, self.W)) # R * W
        self.betar = 1 + F.softplus(self.betar) # 1 * R
        # self.kw: 1 * W
        self.betaw = 1 + F.softplus(self.betaw) # 1 * 1
        self.e = F.sigmoid(self.e) # 1 * W
        # self.v : 1 * W
        self.f = F.sigmoid(self.f) # 1 * R
        self.ga = F.sigmoid(self.ga) # 1 * 1
        self.gw = F.sigmoid(self.gw) # 1 * 1
        self.pi = F.softmax(F.reshape(self.pi, (self.R, 3))) # R * 3 (softmax for 3)

        # self.wr : N * R
        self.psi_mat = 1 - F.matmul(Variable(np.ones((self.N, 1)).astype(np.float32)), self.f) * self.wr # N * R
        self.psi = Variable(np.ones((self.N, 1)).astype(np.float32)) # N * 1
        for i in range(self.R):
            self.psi = self.psi * F.reshape(self.psi_mat[:,i],(self.N,1)) # N * 1

        # self.ww, self.u : N * 1
        self.u = (self.u + self.ww - (self.u * self.ww)) * self.psi

        self.a = u2a(self.u) # N * 1
        self.cw = C(self.M, self.kw, self.betaw) # N * 1
        self.ww = F.matmul(F.matmul(self.a, self.ga) + F.matmul(self.cw, 1.0 - self.ga), self.gw) # N * 1
        self.M = self.M * (np.ones((self.N, self.W)).astype(np.float32) - F.matmul(self.ww, self.e)) + F.matmul(self.ww, self.v) # N * W

        self.p = (1.0 - F.matmul(Variable(np.ones((self.N,1)).astype(np.float32)), F.reshape(F.sum(self.ww),(1,1)))) \
                  * self.p + self.ww # N * 1
        self.wwrep = F.matmul(self.ww, Variable(np.ones((1, self.N)).astype(np.float32))) # N * N
        self.L = (1.0 - self.wwrep - F.transpose(self.wwrep)) * self.L + F.matmul(self.ww, F.transpose(self.p)) # N * N
        self.L = self.L * (np.ones((self.N, self.N)) - np.eye(self.N)) # force L[i,i] == 0   

        self.fo = F.matmul(self.L, self.wr) # N * R
        self.ba = F.matmul(F.transpose(self.L), self.wr) # N * R

        self.cr_list = [0] * self.R
        for i in range(self.R):
            self.cr_list[i] = C(self.M, F.reshape(self.kr[i,:],(1, self.W)),
                                F.reshape(self.betar[0,i],(1, 1))) # N * 1
        self.cr = F.concat(self.cr_list) # N * R

        self.bacrfo = F.concat((F.reshape(F.transpose(self.ba),(self.R,self.N,1)),
                               F.reshape(F.transpose(self.cr),(self.R,self.N,1)),
                               F.reshape(F.transpose(self.fo) ,(self.R,self.N,1)),),2) # R * N * 3
        self.pi = F.reshape(self.pi, (self.R,3,1)) # R * 3 * 1
        self.wr = F.transpose(F.reshape(F.batch_matmul(self.bacrfo, self.pi), (self.R, self.N))) # N * R

        self.r = F.reshape(F.matmul(F.transpose(self.M), self.wr),(1, self.R * self.W)) # W * R (-> 1 * RW)

        self.y = self.l_Wr(self.r) + self.nu # 1 * Y
        return self.y
    def reset_state(self):
        self.l_dl.reset_state()
        self.u = Variable(np.zeros((self.N, 1)).astype(np.float32))
        self.p = Variable(np.zeros((self.N, 1)).astype(np.float32))
        self.L = Variable(np.zeros((self.N, self.N)).astype(np.float32))                           
        self.M = Variable(np.zeros((self.N, self.W)).astype(np.float32))
        self.r = Variable(np.zeros((1, self.R*self.W)).astype(np.float32))
        self.wr = Variable(np.zeros((self.N, self.R)).astype(np.float32))
        self.ww = Variable(np.zeros((self.N, 1)).astype(np.float32))
        # any variable else ?

X = 5
Y = 5
N = 10
W = 10
R = 2
mdl = DNC(X, Y, N, W, R)
opt = optimizers.Adam()
opt.setup(mdl)
datanum = 100000
loss = 0.0
acc = 0.0
for datacnt in range(datanum):
    lossfrac = np.zeros((1,2))
    # x_seq = np.random.rand(X,seqlen).astype(np.float32)
    # t_seq = np.random.rand(Y,seqlen).astype(np.float32)
    # t_seq = np.copy(x_seq)

    contentlen = np.random.randint(3,6)
    content = np.random.randint(0,X-1,contentlen)
    seqlen = contentlen + contentlen
    x_seq_list = [float('nan')] * seqlen
    t_seq_list = [float('nan')] * seqlen    
    for i in range(seqlen):
        if (i < contentlen):
            x_seq_list[i] = onehot(content[i],X)
        elif (i == contentlen):
            x_seq_list[i] = onehot(X-1,X)
        else:
            x_seq_list[i] = np.zeros(X).astype(np.float32)

        if (i >= contentlen):
            t_seq_list[i] = onehot(content[i-contentlen],X)    

    mdl.reset_state()
    for cnt in range(seqlen):
        x = Variable(x_seq_list[cnt].reshape(1,X))
        if (isinstance(t_seq_list[cnt], np.ndarray)):
            t = Variable(t_seq_list[cnt].reshape(1,Y))
        else:
            t = []

        y = mdl(x)
        if (isinstance(t,chainer.Variable)):
            loss += (y - t)**2
            print y.data, t.data, np.argmax(y.data)==np.argmax(t.data)
            if (np.argmax(y.data)==np.argmax(t.data)): acc += 1
        if (cnt+1==seqlen):
            mdl.cleargrads()
            loss.grad = np.ones(loss.data.shape, dtype=np.float32)
            loss.backward()
            opt.update()
            loss.unchain_backward()
            print '(', datacnt, ')', loss.data.sum()/loss.data.size/contentlen, acc/contentlen
            lossfrac += [loss.data.sum()/loss.data.size/seqlen, 1.]
            loss = 0.0
            acc = 0.0

今回の論文は,モデルの詳細がしっかり Methods と Supplementary Material に書かれており,とても親切に感じました.特に Supplementary には全ての変数とモデル内の数式がまとめられており,ここに書かれている全ての式を上から順にコードに「移植」していくだけでモデルを完成させることができました.(上記コード中の変数名は,ほぼ Supplementary の数式中の変数名と対応しています.)
また,コードを書く過程で,chainer の Variable を操作するいろいろな関数について,いくらか詳しくなることができました.(機会があればまとめるかもしれません.)

上記のコードは,とても簡単なタスク(短いシンボル列を遅れて echo するタスク)を DNC に学習させるコードとなっています.一応エラーなしに動きます.1000データほどで学習できています.(※このタスクは論文中にはありません.)
しかし,急いで実装したため,論文通り正しく DNC を実装できているか確証はありません.誤りが見つかりましたら,ぜひご指摘いただけますと幸いです.

今後は,今回作った DNC を,色々な学習タスクに適用していきたいです.DeepMind の論文みたく,パズルを解かせたりしてみたいです.

更新履歴

2016/10/30 …… Variable のスライシングが簡潔に書けることがわかったため,コードを一部修正しました.


  1. ただし,彼らは論文中でこのメモリを「外部」メモリ (external memory) と呼んでいます.以下論文より:The behaviour of the network is independent of the memory size as long as the memory is not filled to capacity, which is why we view the memory as 'external'.(メモリが容量に達さない限りは,我々のネットワークの挙動はメモリサイズに依存しない.そのため,我々はこのメモリを『外部』メモリと捉えている.)