Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
4
Help us understand the problem. What is going on with this article?
@SyutoHidano

[ゼロから作るDeep Learning]損失関数 二乗和誤差をわかりやすく解説してみた

More than 1 year has passed since last update.

はじめに

この記事はゼロから作るディープラーニング 5章ニューラルネットワークの学習を自分なりに理解して分かりやすくアウトプットしたものです。
文系の自分でも理解することが出来たので、気持ちを楽にして読んでいただけたら幸いです。
また、本書を学習する際に参考にしていただけたらもっと嬉しいです。

二乗和誤差

二乗和誤差とは回帰問題を解くためのニューラルネットワークの性能の悪さを出したいときによく使われる損失関数です。
スクリーンショット 2019-10-21 19.35.05.png
予測値から正解データの値を引いた予測値と正解データの誤差を二乗して総和したものを➗2します。
スクリーンショット 2019-10-21 20.19.21.png

では実際に実装してみます。

#二乗和誤差実装
t = np.array([0,0,0,0,1])#正解データ
y = np.array([0.1,0.05,0.05,0.1,0.7])
def Sum_squared_error(t,y):
    s = ((y - t)**2).sum()
    return s * 0.5
Sum_squared_error(t,y)
0.057500000000000016

前回の記事でも解説しましたが、ニューラルネットワークの学習は損失関数の最小化を目指すので、上の例はかなり0に近い値なのですごく良いと言えます。

4
Help us understand the problem. What is going on with this article?
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
SyutoHidano
AIエンジニアを目指す文系大学生です。 大学1年生の前期まではWEBエンジニアを目指していたのですが、将来性に不安を感じてAIエンジニアを目指すことを決意!! Python文法や基礎的な機械学習は勉強済みなので基本的に深層学習の技術書を進めていきます。

Comments

No comments
Sign up for free and join this conversation.
Sign Up
If you already have a Qiita account Login
4
Help us understand the problem. What is going on with this article?