ロジスティック回帰におけるヘッセ行列について
解決したいこと
機械学習にてよく掲載されるロジスティック回帰のヘッセ行列の導き方について質問です。
一般的なロジスティック回帰の損失関数1階微分については微分とその結果について理解できるのですが、図のような1階微分を終えた関数をw_jで2階微分を行うと、図の緑枠の部分がどういう結果で出てくるのか理屈が理解できません。
ネット上でも2階微分の結果のヘッセ行列は自明のように扱われているサイトが多く、手順を踏んだ微分結果の丁寧な解説をおこなっているところは見つからなかったためここで質問させていただきます。
よろしくお願いします。
0 likes