3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

CA Tech LoungeAdvent Calendar 2023

Day 24

[入門]決定木アルゴリズム

Last updated at Posted at 2023-12-24

はじめに

機械学習のコンペではlightbgmをはじめとする決定木をベースにしたモデルがめちゃくちゃよく使われていますよね。私も何度かコンペに参加しそれらのモデルのお世話になったわけですが、実際どういうモデルなのか何も知らないのは彼らに申し訳ない!!ということで調べてまとめることにしました。
決定木やランダムフォレスト、勾配ブースティングなどに関する詳細で素晴らしい記事はQiita上にすでにたくさんありますが、この記事はとりあえずざっくり、でも広範囲に決定木について学びたいと思っている人のために書こうと思います。※難しい数式などは出てきません!!

決定木とは?

決定木とは、クラス分類にも回帰タスクにも広く用いられているモデルです。クラス分類の場合目的変数には質的変数(male or femaleなど)をとり、回帰タスクの時は目的変数に量的変数(1.4,3.5など)を取ります。また、説明変数には質的変数も量的変数も取ることができます。

決定木の主な仕組み

決定木の学習では、Yes/Noで答えられる質問で構成された階層的な木構造を学習します。

クラス分類における決定木

分類タスクでよく使われる、irisデータセットを参考に、決定木の分類タスクについて説明します。
以下のようなirisの分布があるとします。
スクリーンショット 2023-12-24 20.25.23.png
この分布は、Petal lengthとPetal widthによって3つの領域に分けることができます。
スクリーンショット 2023-12-24 20.12.06.png
これを、木として表すと以下のようになります。
スクリーンショット 2023-12-24 20.16.11.png

回帰分析における決定木

以下のような握力の分布があるとします。
スクリーンショット 2023-12-24 19.42.48.png
今回の回帰分析では、身長と体重という二つの特徴量を使ってモデルを学習させていきます。深さ2の木では、以下のようになります。
スクリーンショット 2023-12-24 19.43.02.png
これを木として表すと、以下のようになります。
スクリーンショット 2023-12-24 19.50.38.png

決定木による特徴量の重要度の算出

決定木の学習により、特徴量の重要度を算出することができます。実際のコンペではこの重要度を見て特徴量を削減したり、重要な特徴量の欠損値を埋めたりします。この重要度は、分類をする際にそれぞれ特徴量がどれだけ分類に寄与しているかを評価する指標であり、ジニ不純度というものを用いて計算します。
詳しい計算は書きませんが、全ての特徴量の重要度の和は必ず1になります。

決定木を利用したモデル

決定木はそれ自体でも機械学習のモデルとして使うことができますが、現在は決定木を利用したより精度の高いモデルがよく使われています。これらは大きくランダムフォレストと、勾配ブースティングの2種類に分けられます。この二つのモデルの違いを理解するため、まずアンサンブル学習というものについて説明します。

アンサンブル学習とは

アンサンブル学習とは、様々な予測モデルを作成して、最終的に一つの予測結果を出す手法のことです。このアンサンブル学習には、大きく分けてバギングとブースティングという手法があります。

(1) バギング
バギングとは、訓練データをブートストラップサンプリングすることで、訓練データのデータセットをいくつか作り、それぞれのモデルに学習させるものです。ブートストラップサンプリングとは、全データの中から復元抽出によりn個のデータをランダムに抽出することです。この時、過去に選択したデータも選択対象に含めるため、同じデータが何度も選ばれたり、一度も選ばれないデータがあったりします。また、次のモデルを作るとき、過去のモデルの情報は受け取らないため、学習中のモデル同士は互いに関与しません。

(2) ブースティング
対してブースティングでは、最初のモデルの学習を終えたら次のモデルで学習を始めます。この時、すでに学習が終わったモデルからデータの誤分類や、平均二乗誤差などの情報を受け取ってから次のモデルの学習を始めるので、学習が進むにつれてだんだんと精度が向上していきます。

決定木をバギングしたモデル 〜ランダムフォレスト〜

ランダムフォレストは、アンサンブルの手法としてバギングを使います。通常のバギングでは、行を復元抽出でランダムに選んでデータセットを作成しますが、ランダムフォレストではそれに加えて各ノードの分割条件を決めるときに利用する特徴量の列もランダムに選択します。

決定木をブースティングしたモデル 〜lightGBM~

ブースティングの手法にはXgboostや勾配ブースティング、アダブーストなどさまざまなものがありますが、よく機械学習で使われるモデルであるlightGBMには、勾配ブースティングというブースティングの手法が用いられています。

まとめ

最後までお読みくださりありがとうございました!このようにブログやQiitaに記事を投稿するのは初めてで慣れていないかつ、文章を書くこともあまり得意ではないので大変読みにくい記事だったと思いますすみません...2023年度も残すところ1週間となりましたね!来年度は、Qiitaにたくさん記事を投稿することを目標にしていきたいと思います♪

参考文献

決定木|株式会社アナリティクスデザインラボ
[機械学習]ランダムフォレストを理解する
決定木・ランダムフォレスト・勾配ブースティング①(make_moons)
決定木分析をシンプルに理解する
決定木(Deion Tree)を理解して文書分類を行う
須藤秋良.スッキリわかるPythonによる機械学習入門.株式会社インプレス.2020
Andreas C.Muller,Sarah Guido(著),中だ秀基(翻訳).Pythonではじめる
機械学習-scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎.オライリージャパン.2017

3
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?