Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

This article is a Private article. Only a writer and users who know the URL can access it.
Please change open range to public in publish setting if you want to share this article with other users.

AWS Certified AI Practitioner(AIF)対策:損失関数・最適化手法(勾配降下法)・逆伝播法

Last updated at Posted at 2024-12-04

損失関数

『モデルの予測が実際の値からどれだけ離れているか』

を測定する 指標 です。

最適化手法

『損失関数が示す誤差を基に、モデルの重みを調整し、損失を最小化する』

ように学習を進めます。

損失関数はモデルのパフォーマンスを評価し、最適化手法は損失関数の値を最小化するためにモデルのパラメータ(重み)を調整します。

これによって、モデルの予測精度 が向上します。

勾配降下法

損失関数の値を最小化するために用いられる代表的な最適化手法です。

具体的には、

『損失関数の勾配(傾き)を計算し、その勾配が小さくなる方向に重みを更新していく』

ことで、損失を徐々に減らしていきます。

逆伝播法(バックプロパゲーション)

ニューラルネットワーク内で

『誤差を逆方向に伝播させ、各層の重みを最適化する』

ために用いられる手法です。

これによって、モデルの予測精度 が向上します。

  • 勾配が計算され、重みが誤差が小さくなる方向に調整されます。
  • 各層で誤差を効率的に伝播させ重みを最適化します。
  • 逆伝播法は誤差が各層に効率的に伝えられ、重みを調整します。

勾配降下法などと組み合わせることで、逆伝播法は重みの最適化に役立ちます。

0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?