1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.


実際の順位表

ranking.png


TLDR

  • 基本的にはこのトピックをそのまま丸パクリ。
  • 加えて、説明変数のクラスタリングにより説明変数の総合得点化を行った。
  • クラスタ数・アンサンブルするモデル数・エポック数についてハイパーパラメータ探索を行った。その際の評価を慎重に行った。
  • Notebookはこちら

コンペ概要

本コンペでは、金融関連企業様のデータを用いて、数百の匿名特徴量を用い、金融に関する或るターゲット値を予測することをテーマとします。
予測精度の評価はcosine similarityにて行います。
このコンペティションでは、テストデータの約29%により暫定スコアが計算され、残りの約71%により最終スコアが計算されます。

https://competition.nishika.com/competitions/finance_ts/summary より引用

特徴量が匿名であり、この項目はどういう意味があるのか、などの推測が難しくなっている。

また、評価指標がコサイン類似度であることもなかなか癖があり、難しい点と個人的には思う。


EDA

  • 各説明変数は5段階になっている。アンケート的なものを想像し、似たような項目はまとめて総合得点化することが効果的かもしれないと考えた。
  • targetの値が10段階しかないことがわかる。
    • 最終的には連続値として回帰を行ったが、multiclassで10クラスの確率を予測し、10クラスの値を予測確率で重みつき平均をとったものも効果的だったように思う。1
  • こちらのトピックより、スコアのばらつきが大きそうであることを確認。

前加工+モデル作成

  • 説明変数の類似項目がどれかは匿名化によって一見では分からないため、こちらのブログを参考に、相関係数(絶対値はかけなかった)で説明変数のクラスタリングを行った。
    • クラスタ数を後述のハイパーパラメータとして探索し、220を採用した。このクラスタ内の説明変数の和を新たな説明変数として用い、変数を220まで減らすことができた。
      • もちろん、説明変数を減らすことで情報が減っているので、やるべきかという問題はある。
      • 絶対値をかけてクラスタリングを行い、その正負を考慮して和を取る方が良さそうだが、すぐには実装が思いつかなかったため断念。
  • こちらのトピックより、以下の2点を丸パクリ。
    • グループ (id // 10,000) の追加。テストデータのグループは66に設定。
    • LightGBMでの回帰モデルを作成とバギングとアンサンブル

ハイパーパラメータの調整

  • クラスタ数・アンサンブルするモデル数・エポック数についてハイパーパラメータ探索を行った。
    • trainデータを40万件と26万件に分けてコサイン類似度のスコアを見て最も良さそうなパラメータを採用する。
    • その際に、±0.01程度スコアが前後することが分かっていたので、26万件からランダムに29%と71%に分けて1000回スコアを出してその分布(平均値)を見ることにより決定した。
    • また、publicスコアが低い(分布の下側にいる)場合にprivateスコアが高くなる(分布の上側にいる)傾向にあるような気がしたが、提出したpublicスコアが高いか低いかわからないしあまり意味はない?

結果

以上の方法により、Publicスコア0.049781、Privateスコア0.033341で18位となった。

(Publicスコアは黒魔術2入りのものが0.0565と自己ベストだったが、そちらのPrivateスコアは0.014404。)

Nishika内のトピックにnotebookアリ

宝くじ・運ゲーコンペと噂されているように、偶然で上位に行く可能性が十分にあるコンペだと思われるので、今回の解法が良いものかは分からないが、実際大きなshakeが起きなかったので、ハイパーパラメータ探索などにおいて堅いものを選べたのではないかと思っている。

  1. 単純に前処理も何もせず、shuffleありの5-foldで10クラスの分類をLightGBMで行い、重みつき平均を行ったものが、privateスコアは0.037098と2位相当のスコアになっていた。しかしpublicスコアが0.031396と少々低く、最終提出の中に含めることはできなかった。実際のnotebook

  2. 丸パクリしたトピックに記載のある後処理。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?