loss_W = lambda W: self.loss(x, t)
grads = {}
numerical_gradient(loss_W, self.params['W1'])
の部分ですが、numerical_gradient
の第二引数は参照渡しになっているようです。
Go to list of users who liked
More than 5 years have passed since last update.
loss_W = lambda W: self.loss(x, t)
grads = {}
numerical_gradient(loss_W, self.params['W1'])
の部分ですが、numerical_gradient
の第二引数は参照渡しになっているようです。
Register as a new user and use Qiita more conveniently
Go to list of users who liked