298
228

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

XGBoostのお気持ちをちょっとだけ理解するためのメモ

Last updated at Posted at 2019-03-21

現在、Kaggleにてよく使われる手法の一つにGBDT(Gradient Boosting Decision Tree)があります。さらにその種類の1つXGBoostはKagglerによりその効果を検証され非常に人気の高いアルゴリズム・実装です。このブログでは、XGBoostの論文からアルゴリズムを理解するための主要な部分、

    1. TREE BOOSTING IN A NUTSHELL
    • 2.1 Regularized Learning Objective
    • 2.2 Gradient Tree Boosting
      を丁寧に解説することを目的に書いています。

また、ここで解説した理論、アルゴリズムについてはLightGBMにおいてもほぼ同じと思いますので、合わせて参考になるかと思います。

おことわり

しかしながら、最初におことわりをさせていただくのですが、markdownやtexでキレイにまとめる余裕がなかったため、iPadで書いた手書きのメモを暫定的に公開し、markdown化が済んだらまた更新する形とさせていただきます。(Qiita前代未聞の手書き記事?)

PDF版の方が画像が鮮明なので、細かいところを見たい方はこちらPDF版をご参照ください。

xgboost_001.png
xgboost_002.png
xgboost_003.png
xgboost_004.png
xgboost_005.png
xgboost_006.png

いかがでしたか?少しでもXGBoostやGBDTのお気持ちがわかってもらえたら幸いです。この記事を読んで少しでもためになったと思われた方は「いいね」ボタンやRetweetをお願いします!:wave:

Reference

298
228
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
298
228

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?