@FubiraiHan

Are you sure you want to delete the question?

If your question is resolved, you may close it.

Leaving a resolved question undeleted may help others!

We hope you find it useful!

ReLUについて

機械学習を勉強していて、活性化関数は非線形性をモデルに持たせることができ、活性化関数にReLUを使うと層は以下の様に表せるとわかりました。

max(x_i * w_i + b_i , 0) = y_i

ここで思ったのですが、もし層での計算結果

x_i * w_i + b_i

がすべて0より大きかった場合モデルは線形的になってしまう気がします。こうなってしまうと活性化関数を入れる意味がなくなる気がするのですが、なぜReLUが使われるのでしょうか。
計算結果がすべて0より大きくなる場合なんてねえよという前提に立っているということでしょうか

0 likes

1Answer

がすべて0より大きかった場合モデルは線形的になってしまう気がします。こうなってしまうと活性化関数を入れる意味がなくなる気がする

入力値が0以下のときに0になる方が欠点として見られると思います。そのため派生としてLeaky ReLU等がありますね。

重みの初期値を適切に設定することが重要となります。
参考:ReLUと初期値 〜ディープラーニングにおける活性化関数のふるまいと工夫〜

0Like

Your answer might help someone💌