Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
Help us understand the problem. What is going on with this article?

【Kaggle】メルカリのコンペに出してみました

More than 3 years have passed since last update.

DMM.com #1 Advent Calendar 2017 の7日目を担当させていただきます、@teru855です。
前日の記事は、@sinnershikiさんの JuniperのQFX10kの仮想環境に触れる でした
これは DMM.com #1 Advent Calendar 2017 - Qiita の7日目の記事です
6日目の記事は こちらです

qiita.com
カレンダーのURLはこちら
DMM.com #2 Advent Calendar 2017 - Qiita
DMM.com #1 Advent Calendar 2017 - Qiita

はじめに

今回の記事は何を書こうかとかなり悩みましたが、今までの記事の中で一番反響のあったKaggleのコンペに提出しようと思います。
Kaggleのページ (今回参加したもの)

https://www.kaggle.com/c/mercari-price-suggestion-challenge#description

そもそも、Kaggleとは何か

簡単に言うと、
世界中のデータサイエンティスト達に、賞金をかけた難問を
解析をさせ、より高い正答率を競わせる大会です。

詳しくは多数記事が存在するので、この辺を見てください。

https://qiita.com/taka4sato/items/802c494fdebeaa7f43b7

今回のテーマ

今回のテーマは

「メルカリの価格提案チャレンジ! 〜メルカリの販売者に出品価格を自動で提案できるかどうか〜」
です。

賞金の合計額は $100,000 と、
メルカリに就職できる権利をもらえるらしいです。

データセットの説明

今回学習、テストに使用するデータセットは以下になります。
この中に price が含まれてますが、これは今回求める値のため、trainデータ群に存在し、testデータ群には存在しない。

カラム名 意味
train_id, test_id ID
name 商品のタイトル(価格データなどは削除してあります)
item_condition_id 商品のコンディション
category_name 商品のカテゴリ (最大3つ)
brand_name ブランド名
price 商品が販売された時の価格(ドル)で、今回求める数値
shipping 送料が出品者負担かどうか(出品者負担: 1、購入者負担: 0)
item_description 商品の説明、価格情報は削除済み

実データはこんなかんじで、文字が多めの印象です。
category_nameは最大3つ「/」で区切られており、後で自分でパースしなければなりません。
image.png

評価方法

RMSLEを用います。式はここに記述されているのでみてください。

https://www.kaggle.com/c/mercari-price-suggestion-challenge#evaluation

提出する際はこのように、[test_id, price]で、cvs形式で提出してください。
image.png

調査

それぞれのデータの状態を調べてみた
全体では、1482535のカラムが存在しする

ブランドの種類: 4810
カテゴリの種類: 1288
コンディション: 1-5
image.png

カテゴリの種類は、一見1288種類だと思われるが、それは3種類のカテゴリを合わせてであるので注意が必要です。
image.png

また、そのうちの6万は「Women/Athletic Apparel/Pants, Tights, Leggins」です。
image.png

全カテゴリの種類は951種類のようです、以外と少ないですね。
image.png

 手法

算出手順

文字を全て数値に置き換え、重回帰で算出します。

手法

欠損値の補正

まず、ブランド名やカテゴリ名で値が存在しないものがあり、数値的に存在しない(NaN)があったが、
数値と文字が混在するとこの後扱いづらいので文字列の"NaN"に変換した。

image.png

カテゴリの修正

次にカテゴリを分割する。 分割した結果は下の配列を参照してください。
image.png

分割した後、DataFrame型に変換し、文字を数値に置き換えます。
factorize 関数はその配列のユニークな文字にそれぞれ数値の1からラベルを割振る関数で、
['a', 'b', 'a', 'c'] とあったら、 [1, 2, 1, 3] と変換してくれます。
image.png

それで、値をみるとこんなかんじに変換されているのがわかります。
priceだけ、少数になってますが、これは後で修正します。
image.png

解析

相関係数

今回も最初に相関係数を算出する
相関係数については以下のwikiを参照する
https://ja.wikipedia.org/wiki/%E7%9B%B8%E9%96%A2%E4%BF%82%E6%95%B0

imageimage.png

うーん、、priceと相関がありそうなのは、 shipping と、 category_0 ぐらいですね...精度が低そうです。
image.png

学習

target_list に価格を整数の配列として格納し、 data_list に価格以外の情報を、これも整数の配列として格納します。

# 引数の取得
target = dfe['price']
data = dfe
data.drop('price', axis=1, inplace=True)
data_names = data.columns

# DataFrame型から整数値のArray型にする
data_list = data.values.astype(np.int64)
target_list = target.values.astype(np.int64)

重回帰

値を重回帰で学習させます。

from sklearn import linear_model
clf = linear_model.LinearRegression()
# 説明変数として、Xに値を代入
X = data_list
# 目的変数として、Yに値を代入
Y = target_list
# 予測モデルを作成
clf.fit(X, Y)
# 偏回帰係数
print(pd.DataFrame({"Name":data_names,
                    "Coefficients":clf.coef_}).sort_values(by='Coefficients') )

結果確認

RMSLEではなく、簡単に実装できる RMSEを用いた。 
うーん...全然よくない...
相関係数で全く相関が出てなかったのが頷けます...
image.png

まとめ

trainをこの後、上記の手法で提出しましたが、やはり悪かったです。
また、重回帰ではなく、RandomForestも試してみましたがあまり精度がかわらなかったで、そもそもパラメータがよくなかったと思われ、改善点を以下にあげてます。

  • カテゴリ情報を分割し、格納した際に、格納する順序に重きを置いていなかった ([A, B, C]と[B, A, C]は別物として扱った)ためそもそも学習ができなかった →ソートすればよかった?
  • 一番重要な情報である名前と説明文を完全に捨てた事
  • 文字情報を全て無視して、文字情報そのものに大小関係が存在しないにもかかわらず全て数値に置き換えたため、学習がうまくいかなかったこと

などがあげられると思われる。
特に文字情報は word2vec などを用いれば飛躍的情報量が増えると思われるため導入を検討しようとおもいます。

終わりに

今回はKaggleに短時間で提出するという目的を果たしたのでよかったが、成果があまりにもよくなかったので、そもそものパラメータの見直しが必要だと思われます。

Kaggleは、会社でどうしても解きたい問題をコンペという形で世界中のデータサイエンティストに解かせることができることができるサービスですが、
今回参加して、データサイエンティストを3人雇って半年で成果をあげさせるよりも、コンペという形で一千万円の賞金をかけさせた方が安く、より早く目的の学習機や人材を集める事ができる新しい形だと強く感じました。

明日は、@anbhtsさんが書いてくれます

teru855
toreta
飲食店向け予約/顧客台帳サービス「トレタ」、超直前予約アプリ「トレタnow」を開発・提供するスタートアップ企業です。
https://corp.toreta.in
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away