ベイズ統計学に基づいた機械学習をするに当たって、その根底にある数学理論をまとめたのが本書になります。前提知識として、線形代数や微積分の知識があるといいと思いますが、本書はかなり丁寧に書かれており、補足が充実しているので、読みやすいと思います。以下、各チャプターの要約を書きたいと思います。
Chapter1
本書における機械学習の定義をした後、主なタスク(回帰、分類など)を説明します。その後、確率の基本計算、グラフィカルモデルを一通り説明した後、ベイズ学習の利点と欠点を説明しています。利点と欠点は以下の通りです。
利点
- 様々な問題を一貫性を持って解ける
- 対象の不確実性を定量的に取り扱うことができる
- 利用可能な知識を自然に取り入れることができる
- 過剰適合がしにくい
欠点
- 数理的な知識を要する
- 計算コストがかかる
Chapter2
ここではベイズ学習でよく使われる基本的な確率分布の紹介と説明をしています。それぞれの分布の特徴や期待値、分散などが説明されています。
Chapter3
Chapter3ではChapter2で紹介された分布を使って、ベイズ学習の解説をしています。学習と予測に必要な計算の解説から始まり、分布に基づいた学習について解説しています。また、それ以外にも線形回帰に基づいた学習と予測の解説をしています。
Chapter4
Chapter3ではある分布に基づいて学習の解説をしていましたが、画像や自然言語など、より複雑な統計的性質を持つデータに対して、解析をする手法を解説しています。解説される内容として、最初に混合モデルの概要と、ギブスサンプリングや変分推論など、いくつかの近似アルゴリズムの概念的説明から始まり、具体的な実現例として、1次元ポアソン混合モデルと多次元ガウス混合モデルを構築、簡単なデータのクラスタリング実験を解説しています。
Chapter5
ここではより実践的な確率モデルについて解説をします。内容として、次元削減の手法や隠れマルコフモデル、自然言語処理、ロジスティック回帰、ニューラルネットワークなどです。ここの内容は複雑なモデルが多く、興味がある箇所から読みと良いかもしれません。