LoginSignup
45
40

More than 5 years have passed since last update.

普通のSQLよりも150倍速いと謳ってるPeriscope Dataのさらに150倍の速さでサクッとRで分析してみた。

Last updated at Posted at 2016-09-07

この記事はRは知らないけど、SQLとか他のプログラミング言語はある程度やったことあるみたいな人向けです。
SQLでデータ分析をしていて、煩わしいと感じたことはありませんか? これは、SQLは、リレーショナルなデータベースから、クエリしてデータを抽出するために作られているので、ある意味当たり前のことなんです。しかし、データ分析において、Rをオススメしたい理由は、実はRは、データデータの加工、分析のために作られているからなんです。Rでなら、SQLを書くだけでは考えられなかったより高度なことや効果的な方法で素早くデータを分析していくことができるのです。

普通のSQLよりも150倍速いと謳ってるPeriscope Dataという会社のブログをご存知でしょうか?

Periscope Data社が、ブログで、ぼくの留学先であるサンフランシスコの街の2003年から2015年までの犯罪データをSQLを使って分析しています。しかし、これには問題点がいくつかあります。リンクはこちらです。

  • おそらく、Periscope Data社は、このデータをダウンロードして、データベースにアップロードしています。このデータは、200万行もありません。どうしてデータベースが必要なのでしょうか? このためだけに、Periscope Data社のように、Redshiftのデータベースを使うのはやめましょう。お金の無駄です。Redshiftは、ビッグデータに向いていると言われていますが、それでも、Rのインメモリを読み込むスピードに比べると、遅いです。

  • SQLのクエリは、クエリを書くのが難しいだけでなく、クエリの中で問題が起こったときに、デバッグすることが困難です。それに加えて、Periscope Data社のブログのように、当人以外の人が、SQLのクエリを理解することはとても困難です。

つまり、メンテするのに、ハイコストがかかります。また、分析をはじめる前に、データを準備する段階で膨大な時間がかかります。さらに、高確率で、クエリのエラーに出くわすでしょう。そして、複雑なクエリを考えつくのに、また時間がかかるのです。しかし、Rなら、150倍の速さでサクッと仕事を切り上げられるでしょう。

だから、これから、PeriscopeData社のSQLを使った分析と、ぼくのRを使った分析を比較して、いかにRがSQLに比べてデータ分析に向いているかを説明していきたいと思います。データはこちらからダウンロードすることができます。

データを準備するのが、SQLに比べてどれだけ簡単か

Periscope Data社は、どの曜日とどの時間帯に犯罪が多いのかを見るために、SQLを使って、このように分析しています。

select
  extract(dayofweek from date)
  , extract(hour from date)
  , count(1)
from
  sf_crime_2003_2015
group by
  1
  , 2
order by
  3
select 0, 'Sunday'
union select 1, 'Monday'
union select 2, 'Tuesday'
union select 3, 'Wednesday'
union select 4, 'Thursday'
union select 5, 'Friday'
union select 6, 'Saturday'

Exploratoryだと、ボタン1つでインポートすることができます。

import-sf.png

サマリー画面を見てもらえるとわかるように、Date列のデータタイプはデフォルトだとcharacterになっています。

summary-sf.png

ちなみに上記のPeriscope社のSQLを見ると、いきなりextract関数を使って、曜日や時間を引き出しています。ということは、おそらくだれかに頼んで、データをインポートする段階で、このDate列とTime列を結合してさらに、フォーマットを指定してといっためんどくさいことをその前にやっていたのでしょう。でも残念ながら、その部分は彼らは書いていません。SQLだと実はそこがものすごく大変なんです。大変だからこそブログで書かなかったんでしょうね笑。

一方、Rの場合は、mdy_hm関数を使うと、たった1行で、データ・タイプをcharacterからDateに変えることができます。


mutate(Date = mdy_hm(str_c(Date, Time, sep=" ")))

mdy-sf2.png

どの曜日に犯罪が多いか

wday関数を使って、Dateから曜日を抽出することができます。


mutate(Date_wday = wday(Date, label = TRUE))

wday-sf.png

次に、count関数を使うと、曜日ごとの犯罪件数を計算することができます。


count(Date_wday)

wday-n.png

どうやら金曜日が一番多いみたいですね。

どの時間帯に犯罪が多いか

元のブログのように、どの時間帯に犯罪が多いかを見ていきたいと思います。

元のブログでは、こんなふうにSQLを書いて、Date列から時間を抽出して、時間ごとの犯罪件数を計算しています。

select
  extract(hour from date)
  , count(1)
from
  sf_crime_2003_2015
group by
  1
  , 2
order by
  3

Rでは、もっと簡潔に書いていくことができます。

まず、hour関数を使って、hourデータを抽出します。


mutate(hour = hour(Date))

これも、count関数一発で、時間帯ごとの犯罪件数を計算することができます。

hour-time-sf.png

午後の5時から6時にかけてが一番多いみたいですね。

一番最初に見せたPeriscope Data社のSQLと比較すると、どちらがシンプルで直感的なのかは一目瞭然ですよね。

最も犯罪件数が多い月日はいつか?

次に、Periscope Data社は、どの月日が犯罪件数が多いかを分析しています。Periscope Data社が書いたこちらのコードをご覧ください。

with crime_by_doy as
(
select
  -- Check to see if it is a leap year
  case when (extract(year from date) % 4 = 0
        and extract(year from date) % 100 <> 0)
        or extract(year from date) % 400 = 0
         then
            case when extract(dayofyear from date) = 60
                   then 'Feb. 29'
                 when extract(dayofyear from date) > 60
                   then (extract(dayofyear from date) - 1)::text
                 else (extract(dayofyear from date))::text
            end
      else
         -- If it is not a leap year, no conversions are necessary
         (extract(dayofyear from date))::text
   end as doy,
   count(1) as num_incidents
from
   sf_crime_2003_2015
group by
   1
)
, generated_series as
 (
   select
      (getdate()::date - row_number()
        over(order by true) )::date as n
    from
      sf_crime_2003_2015
    limit 730 -- value for 2 years
 )

, doy_mapping as
(
  select
     (extract(doy FROM (n)::timestamp))::text as "doy"
     , to_char(n, 'Month DD') as "mm_dd"
  from
     generated_series
  where
     extract(year from n) = 2015
)

select
  crime_by_doy.doy
  , "mm_dd" as date
  , crime_by_doy.num_incidents
from
  crime_by_doy
  join doy_mapping on
    crime_by_doy.doy = doy_mapping.doy
order by 3 desc

とても長くて複雑ですね(笑)。なぜ、こんなに複雑になっているかというと、まず、彼らは、「うるう年がいつか」を計算しています。そして、うるう年の年とうるう年でない年で、月日の設定を条件分岐させているからなんです。

さらにこのスパゲッティーのようなSQLを頑張って読んで理解して見ると、結局は、2015年の中で、月日の犯罪件数を計算して、トレンドを見たいだけのようです。

じゃあ同じことをRでやっていきましょう。

まず、データを2015年だけにフィルタリングしましょう。


filter(year(Date) == 2015)

Date_filter.png

この次に、Periscope Data社はDOYを計算して出して、使い続けています。なぜなら、チャートのために、日付をソートする必要があるからなんです。しかし、Exploratoryのチャートでは、タイムシリーズをケアできているので、DOYをわざわざ使い続ける必要はありません。

DOYを出さずに、このままビジュアライズしちゃいましょう。

Date_viz.png

なんと、Periscope Data社のブログであれだけ、複雑で長いクエリを書いていたことと同じことが、RとExploratoryを使って、こんなにシンプルにすることができました。ここまでにかかったの、たったの1行だけです。

犯罪件数が多い日は、いつになっているかホバーして見てみます。

doy-hover.png

じゃあ、ピボットテーブルにして計算もしてみましょう。

doy-rank.png

おお、これは面白いことに、犯罪件数が多い月日は、どうやら1日が多いみたいですね。

逆に、犯罪件数が少ない月日はどうなっているのでしょうか。

doy-rank2.png

犯罪件数が、少ない日は、月末や年末の休日が多いみたいですね。

せっかく、前のステップで、曜日の情報をとったので、それを列に持ってきて、さらに色を使って軽くビジュアライズしてみましょう。

pivot-sql.png

こうやって、見てみると金曜日と土曜日に犯罪が集中していることがわかりますね。

マップでビジュアライズすることもできます。

pivot-map.png

こんな感じで、2015年の誘拐事件数の週末と平日の比較を地図で表すことも簡単にできます。

というわけで、RとExploratoryを使ってサクッと簡単に分析してみました。SQLだと、まずデータベースを用意しそれを誰かが管理しなければならない。そしてデータをきれいな形にして上でインポートしなければならない。さらにそこから何十、何百行にもなるSQL文を書いて、それを何十、何百回も叩きながら分析していかなければならないといった、気の遠くなるような作業が待っています。それであれば、サクッと、2、3行のコマンドを叩くだけで、超高速にデータ分析をやっていく方が、もちろん直感的で簡単にできるというメリットもありますが、それ以上にもっと、SQLを書く時間ではなく、分析自体に時間を割けるということこそ、重要なのではないでしょうか?

こちらの方で、Rの中でもデータ分析に特化しているdplyrの文法について詳しく解説しているので、よかったらご覧ください。

興味を持っていただいた方、実際に触ってみたい方へ

Exploratoryはこちらからβ版の登録ができます。こちらがinviteを完了すると、ダウンロードできるようになります。

ExploratoryのTwitterアカウントは、こちらです。

Exploratoryの日本ユーザー向けのFacebookグループを作ったのでよろしかったらどうぞ

分析してほしいデータがある方や、データ分析のご依頼はhidetaka.koh@gmail.comまでどうぞ

45
40
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
45
40