損失関数
『モデルの予測が実際の値からどれだけ離れているか』
を測定する 指標 です。

最適化手法
『損失関数が示す誤差を基に、モデルの重みを調整し、損失を最小化する』
ように学習を進めます。
損失関数はモデルのパフォーマンスを評価し、最適化手法は損失関数の値を最小化するためにモデルのパラメータ(重み)を調整します。
これによって、モデルの予測精度 が向上します。
勾配降下法
損失関数の値を最小化するために用いられる代表的な最適化手法です。
具体的には、
『損失関数の勾配(傾き)を計算し、その勾配が小さくなる方向に重みを更新していく』
ことで、損失を徐々に減らしていきます。
逆伝播法(バックプロパゲーション)
ニューラルネットワーク内で
『誤差を逆方向に伝播させ、各層の重みを最適化する』
ために用いられる手法です。
これによって、モデルの予測精度 が向上します。
- 勾配が計算され、重みが誤差が小さくなる方向に調整されます。
- 各層で誤差を効率的に伝播させ重みを最適化します。
- 逆伝播法は誤差が各層に効率的に伝えられ、重みを調整します。

勾配降下法などと組み合わせることで、逆伝播法は重みの最適化に役立ちます。