この文章について
kaggleに挑戦しようと思い、ちょっとkernelを読んでみて見方を書いてみました。
Competitionを選ぶ
日本語の解説があったのでこちらを選択
理由は画像解析や集計対象のモデルが理解しやすいそうだったので…
Kernelを適当に選ぶ
kaggle界隈で人気のxgboostを利用したkernelがたまたま上の方に来ていたのでこちらを選択
https://www.kaggle.com/aharless/swetha-s-xgboost-revised
中身を見てみるとタイトルの下に下記の文言がありました。
forked from XGBoost: Approx tree method by Swetha Boga (+47/–23)
fork先の記事とその作者、fork先のコードとの差分へのリンクが表示されています。
他人のコードをフォークすることができるようです。
次回
コードも言ってることもよくわからなかったので
次回は下記の方法でkernelを動かして試すところまでやってみようと思います。
https://qiita.com/jagainu/items/2a1e3779f944588d29de