坂本俊之『作ってわかる! アンサンブル学習アルゴリズム入門』(C&R研究所, 2019)
出版社サイトを見ても誤植情報がどこにも無かったので集めてみます。
ページ | 誤 | 正 |
---|---|---|
3 | というの本書の目的となります | というのが本書の目的となります |
13 | 通常。決定木をベースとして使用しますが | 通常**、**決定木をベースとして使用しますが |
36 | 「scikir-learn」 | 「scikit-learn」 |
40, 44 | pred.argmax |
prob.argmax |
43 | 回帰分類における評価関数 | 回帰における評価関数 |
50~53 | ncol |
nrow |
57 | ZeroRuleより悪い結果とる | ZeroRuleより悪い結果となる |
57 | 数ら必要な大きさの配列を用意して | ? |
62 | 次元数とNとすると | 次元数をNとすると |
62 | SGDではデータを少しずつ処理できるというため | SGDではデータを少しずつ処理できるため |
68 | クラス変数 | インスタンス変数 |
81 | 決定木アルゴリズムの目的とします | 決定木アルゴリズムの目的です |
85 | データの個枢軸 | データの個数軸 |
88 | 「score」変数も作成しまておきます | 「score」変数も作成しておきます |
102 | 差左右のノード | 左右のノード |
111 | ノード内の枝を削除するれば | ノード内の枝を削除すれば |
117 | def criticalscore(node, x, y, score_max) |
def criticalscore(node, score_max) |
119 | テストデータを別にするときの割合を表す「pruntest」 | テストデータを別にするときの割合を表す**「splitratio」** |
120 | まずプルーニング際に | まずプルーニングの際に |
121 | 一番上のコードは間違い。p126のコードが正しい | |
145 | 5個と10個 | 5,10,20個 |
148 | ここのデータ | 個々のデータ |
149 | Numpyの「agerage」関数 | NumPyの「average」関数 |
149~ | WeighedZeroRule | WeightedZeroRule |
151~ | WeighedDecisionStump | WeightedDecisionStump |
163 | (式3)の $yi$ | $y_i$ |
164 | (式8)、最初にマイナスがつく | |
166 | クラス変数 | インスタンス変数 |
166 | オーバーロード | オーバーライド |
167~ | itre | iter |
174 | 正解しているデータに対する重みを合算 | 不正解のデータに対する重みを合算 |
175 | 正解しているデータの重みの合計を | 正解しているデータの重みの合計で |
190 | すべての合計の半分になって時点で | すべての合計の半分になった時点で |
200 | AdaBoostから初めて | AdaBoostから始めて |
200 | その値が少なくなる方向ように | その値が少なくなるように |
200 | 最後の行、段落変えの1字空白がない | |
211~ | ganma |
gamma |