LoginSignup
14
14

More than 3 years have passed since last update.

坂本俊之『作ってわかる! アンサンブル学習アルゴリズム入門』の誤植情報を集める

Last updated at Posted at 2020-03-30

坂本俊之『作ってわかる! アンサンブル学習アルゴリズム入門』(C&R研究所, 2019)

出版社サイトを見ても誤植情報がどこにも無かったので集めてみます。

ページ
3 というの本書の目的となります というの本書の目的となります
13 通常。決定木をベースとして使用しますが 通常決定木をベースとして使用しますが
36 「scikir-learn」 「scikit-learn」
40, 44 pred.argmax prob.argmax
43 回帰分類における評価関数 回帰における評価関数
50~53 ncol nrow
57 ZeroRuleより悪い結果とる ZeroRuleより悪い結果と
57 数ら必要な大きさの配列を用意して
62 次元数とNとすると 次元数Nとすると
62 SGDではデータを少しずつ処理できるというため SGDではデータを少しずつ処理できるため
68 クラス変数 インスタンス変数
81 決定木アルゴリズムの目的とします 決定木アルゴリズムの目的です
85 データの個枢軸 データの個数軸
88 「score」変数も作成しまておきます 「score」変数も作成しておきます
102 差左右のノード 左右のノード
111 ノード内の枝を削除するれば ノード内の枝を削除すれば
117 def criticalscore(node, x, y, score_max) def criticalscore(node, score_max)
119 テストデータを別にするときの割合を表す「pruntest」 テストデータを別にするときの割合を表す「splitratio」
120 まずプルーニング際に まずプルーニング際に
121 一番上のコードは間違い。p126のコードが正しい
145 5個と10個 5,10,20個
148 ここのデータ 個々のデータ
149 Numpyの「agerage」関数 NumPyの「average」関数
149~ WeighedZeroRule WeightedZeroRule
151~ WeighedDecisionStump WeightedDecisionStump
163 (式3)の $yi$ $y_i$
164 (式8)、最初にマイナスがつく
166 クラス変数 インスタンス変数
166 オーバーロード オーバーライド
167~ itre iter
174 正解しているデータに対する重みを合算 不正解のデータに対する重みを合算
175 正解しているデータの重みの合計を 正解しているデータの重みの合計
190 すべての合計の半分になって時点で すべての合計の半分になっ時点で
200 AdaBoostから初めて AdaBoostから始めて
200 その値が少なくなる方向ように その値が少なくなるように
200 最後の行、段落変えの1字空白がない
211~ ganma gamma
14
14
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
14
14