Noir1997
@Noir1997

Are you sure you want to delete the question?

Leaving a resolved question undeleted may help others!

単純パーセプトロンの重み更新の式についての質問

解決したいこと

https://axa.biopapyrus.jp/deep-learning/perceptron-learning-rule.html
こちらを見ますと重み更新の式が
w+x
とxの一次式で書かれております。

https://algorithm.joho.info/machine-learning/neural-network/
またこちらを見ても重みの更新式が一次式で表現されております。

私はこう考えました。

y[真]を正解、w[真]をy[真]を導く正しい重み
と定義します。
y[真]=w[真]x
です。

今w[test]をtrain_dataから学習した重みとします。

y[test]=w[test]x
とします。
この時
Δy=y[真]-y[test]で与えられるとする。
そうすると
Δy=(w[真]-w[test])x=Δwx
となり
Δy(正解データと予測データの差)/x=Δw→正しい重み更新の式
となると思ったのですが何処がおかしいでしょうか?
つまり重み更新の式はxの一次式ではなく逆数で与えられるのが正しいと私は思うのです。
何か変な事をいっていたら申し訳ございません。

0

1Answer

y[真]=w[真]x
です。

ここから間違っています。
wとxの内積をとったもの(z)を活性化関数(f)に適用したもの(f(z))が出力yです

0Like

Comments

  1. @Noir1997

    Questioner

    すみません、理解出来ました。
    大変参考になりました、ありがとうございます。

Your answer might help someone💌