安倍首相に関するTweetデータをテキストマイニングして可視化してみた (Part 1)

安倍首相に関するTweetデータをテキストマイニングして可視化してみた (Part 1)

image.png

最近、日本では国会が色々と荒れていますが、それを受けてTwitterでは安倍首相に関してどんなことが話題になっているのか気になるところです。そこで今日は安倍首相に言及しているTweetデータを使ってテキスト分析してみようと思います。

ここで一つチャレンジなのは、日本語のテキスト分析になると、英語などの言語と違い、単語と単語の間にスペースがないので、トークナイズ(単語ごとに分ける)するのが難しいという点です。ただ、知ってる人も多いかと思いますが、オープンソースで、MeCabという、Google 日本語入力開発者の一人である工藤拓さん等によって開発されたライブラリを使うと日本語をトークナイズするのが簡単にできます。さらに都合のいいことに、RでMeCabが使えるように、石田基広さんが作られたRMeCabというRパッケージがあるので、それを使うと簡単にRで、つまりはExploratoryの中でテキスト・データをトークナイズしていくことができます。

今日は、そのMeCabのインストール、さらにそれをExploratoryの中で使うためのセットアップ、そしてTweetデータに対するテキスト分析を順を追って説明していきたいと思います。

セットアップ

Mecabと辞書をインストール

以下にMacでのインストールを説明しますが、Windowsの方は、こちらを参照してください。

環境

  • macOS High Sierra(10.13.4)
  • Homebrewがインストールされていること。Homebrewをお持ちでない方は、こちらからHomebrewをダウンロードしてください。 MacでMecabを使うためには、Mecab本体と辞書の2つをインストールする必要があります。

brew install mecabで、Mecab本体をインストールします。

➜  ~ brew install mecab
==> Downloading https://homebrew.bintray.com/bottles/mecab-0.996.high_sierra.bottle.3.tar.gz
######################################################################## 100.0%
==> Pouring mecab-0.996.high_sierra.bottle.3.tar.gz
🍺  /usr/local/Cellar/mecab/0.996: 20 files, 4.2MB
➜  ~ 

次に、brew install mecab-ipadicで、Mecabで利用する辞書をインストールします。

➜  ~ brew install mecab-ipadic
==> Downloading https://homebrew.bintray.com/bottles/mecab-ipadic-2.7.0-20070801.high_sierra.bottle.tar.gz
######################################################################## 100.0%
==> Pouring mecab-ipadic-2.7.0-20070801.high_sierra.bottle.tar.gz
==> Caveats
To enable mecab-ipadic dictionary, add to /usr/local/etc/mecabrc:
  dicdir = /usr/local/lib/mecab/dic/ipadic
==> Summary
🍺  /usr/local/Cellar/mecab-ipadic/2.7.0-20070801: 16 files, 50.6MB
➜  ~ 

コマンドラインからmecab -vとタイプしてバージョンが返って来れば、インストールは成功しています。

➜  ~ mecab -v
mecab of 0.996

試しにmecabとタイプして起動した後に、明日雨が降ると入力すると以下のように品詞に分解されて表示されます。

➜  ~ mecab 
明日雨が降る
明日  名詞,副詞可能,*,*,*,*,明日,アシタ,アシタ
雨 名詞,一般,*,*,*,*,雨,アメ,アメ
が 助詞,格助詞,一般,*,*,*,が,ガ,ガ
降る  動詞,自立,*,*,五段・ラ行,基本形,降る,フル,フル
EOS

RMeCabをインストールする

次に、ExploratoryからMeCabが使えるようRMeCabをインストールしましょう。

多くのRのパッケージはCRANというレポジトリにホストされており、CRANにホストされているパッケージであればExploratoryのUIでパッケージ名をタイプして直接インストールすることができます。このRMeCabは残念ながらCRANではホストされていません。しかし、そうした場合でも、一旦Rパッケージをローカルのファイルシステムにダウンロードして保存すれば、ExploratoryのUIからインストールすることができます。

こちらもMacでの例を説明します。まずは、パッケージのファイルをこちらからダウンロードします。Windowsの方はこちらからダウンロードします。

Exploratory デスクトップを起動し、Rパッケージのメニューをクリックします。

image.png

インストールのタブをクリックし、ローカルを選択します。Rパッケージファイルを選択をクリックします。

image.png

先ほどダウンロードした、RMeCabのパッケージファイルを選びます。

image.png

インストールが完了すると、以下のようなメッセージが表示されます。

image.png

rtweetパッケージのインストール

RMeCabをインストールした時と同じく、Rパッケージ メニューを選び、CRANタブをクリックし、rtweetと入力してインストールをクリックします。

image.png

Twitter Appの登録

次に、Twitterからデータを取得するのに必要なTwitter Appを登録します。
https://apps.twitter.com に行き、名前、摘要などを入力します。
Callback URLのフィールドには必ず、 http://127.0.0.1:1410 を指定してください。
そして、yesのチェックボックスにチェックを入れて、“Create your Twitter application”をクリックします。

image.png

無事にAppができると、次のような画面になります。

image.png

作成された、Consumer KeyとConsumer Secretをメモしておきます。

image.png

RMeCabにある機能を、Exploratoryで使いやすくするように、関数を定義する

RMeCabのトークナイズの関数をExploratoryの中で使いやすくするように関数を定義しましょう。

プロジェクトの中で、左側にある、スクリプトの隣にあるプラスボタンを押します。

image.png

名前をつけて、作成します。

image.png

スクリプトを入力して、右上の保存ボタンをクリックします。

image.png

スクリプトの中身は以下の通りです。この mecab_tokenize という関数は、データフレームを入力として受け取り、指定された列に入っているテキストを、RMeCabCという関数を使って形態素解析します。そして結果を .token という列としてデータフレームに足します。

mecab_tokenize <- function(tbl, text_col, .drop=TRUE){
 loadNamespace("RMeCab")
 loadNamespace("tidyr")
 text_cname <- as.character(substitute(text_col))
 text <- tbl[[text_cname]]
 tokenize <- function(text){
   tokens <- unlist(RMeCab::RMeCabC(text))
   data.frame(.token = tokens, .pos = names(tokens))
 }
 if(.drop){
   tbl[[text_cname]] <- lapply(text, tokenize)
   token_col <- text_cname
 } else {
   tbl$.token <- lapply(text, tokenize)
   token_col <- ".token"
 }
 tidyr::unnest_(tbl, token_col)
}

これで、前準備は完了です。

安倍首相に言及しているTweetをTwitterからインポートする。

それではまず、安倍首相に言及しているTweetをTwitterからインポートしましょう。

現在のExploratoryデスクトップのバージョンでサポートされているビルトインのTwitterデータソースだと、取得できるTweet数に制限があるため、今回は先ほどインストールしたrtweetパッケージを使って、直接Exploratoryの中でR スクリプトを書いてデータを取ってきます。(ちなみに、Exploratoryの次期バージョンでは、ビルトインのTwitterデータソースをrtweetパッケージを使ったものに変更するので、このRスクリプトは書かなくても良くなります!)

R スクリプトデータソースの作成

次に、プロジェクトを開き、画面左側のデータフレームの隣にあるプラスボタンをクリックします。

image.png

先ほど登録した、AppのConsumer KeyとConsumer Secretを使ってトークンを作り、rtweetのsearch_tweetsという関数に渡すとTweetが取得出来ます。

image.png

library(rtweet)

## whatever name you assigned to your created app
appname <- "rtweet_token"

## api key (example below is not a real key)
key <- "xxxxxxxxxxx"

## api secret (example below is not a real key)
secret <- "xxxxxxxxxxxxx"

## create token named "twitter_token"
twitter_token <- create_token(
  app = appname,
  consumer_key = key,
  consumer_secret = secret)

rtweet::search_tweets(n = 2000, lang = 'ja', q = '安倍首相 -filter:retweets', token=twitter_token)

search_tweetsに渡しているパラメタの意味ですが、それぞれ以下の通りです。

  • n: 取得するtweetの件数
  • lang: どの言語でのtweetか
  • q: 検索条件、ここでは安倍首相というキーワードで、retweets以外(-filter:retweets)
  • token: 先ほど登録したAppで作ったトークン

データの取得ボタン をクリックします。無事Tweetが表示されたら、次に インポート をクリックします。

約2000件のTweetがインポートできました。

image.png

テキスト分析をする

では早速Tweetデータを分析してみましょう。

トークナイズする

Tweetテキストのデータを分析する最初のステップとして、さきほど登録したmecab_tokenizeという関数を使ってテキストをトークナイズします。この関数はデータフレームをインプットにとり、トークナイズした結果をアウトプットとして出力するので、カスタムコマンド・モードにして、この関数を呼びます。

緑色のプラスボタンを押すと、メニューが出て来るのでカスタム・コマンド入力を選びます。

image.png

以下のコマンドを入力します。引数にはtext列を指定します。

mecab_tokenize(text)

すると、Tweetのテキストのトークナイズが行われ、品詞ごとに分割されます。

image.png

ストップ・ワード(stopwords)を取り除く

下の赤く囲った部分のように、どこにでもよく出てくる単語なので、テキスト分析する上では特徴のない単語が多く含まれているのが分かります。こうした単語はストップ・ワード(stopwords)と呼ばれます。

image.png

さっそく、これらの単語を取り除きましょう。

こちらに日本語のストップ・ワードのデータがあるので、これをExploratoryにインポートします。そして、このデータを基に、アンチ結合というテクニックを使ってストップ・ワードを取り除きます。

画面左側のデータフレームの隣にあるプラスボタンをクリックします。

image.png

リモートタブを選択し、テキストファイルを選びます。

image.png

URLにhttps://raw.githubusercontent.com/exploratory-io/public/master/stopwords/twitter_stopwords.csv を指定します。

image.png

OKボタンを押します。

image.png

保存ボタンを押して、Japanese_Stop_Words として保存します。

image.png

次に、anti_joinという関数を使って、このJapanese_Stop_Wordsデータ・フレームに入っていないデータだけを残すオペレーションを行います。anti_joinはデータのフィルターと似た動きをします。具体的には、相手先のデータフレームの、指定された列に該当しないデータだけを残せます。この例では、相手先はストップ・ワードなので、ストップ・ワードでないデータだけを残すことができます。

.token列のメニューから結合(Join)を選びます。

image.png

結合の種類でアンチ結合を選び、相手として、ストップ・ワードのデータフレームを指定します。

image.png

これでストップ・ワードが取り除かれました。

さらに不要なデータを取り除く

次に、データを見ていくと下の図のように記号がいくつか入っていることに気が付きます。また、助詞や助動詞や副詞や接頭詞なども不要です。名詞と動詞だけにフィルタリングしましょう。

image.png

列のメニューからフィルタ -> どれかに等しいを選びます。

image.png

条件を確認して、OKを押します。

image.png

安倍首相と言った単語も自明すぎるので合わせて取り除きます。

image.png

どれにも等しくないというフィルタの条件が使えます。

image.png

次に、文字数が1文字以下のテキストデータも意味がないので取り除きましょう。

image.png

これで不要な単語はほとんど取り除くことができました。

image.png

頻出単語を調べる

それではまず、最もよく頻出している単語を見てみましょう。Vizのビューに行って、ピボットテーブルを作ります。行に.token列を割り当てて、ソートに.token列を割り当てて頻度の降順をセットして頻度の多い順にデータを並べます。すると、支持、拉致、横田などの単語が多く使われていることがわかります。

image.png

バーチャートで同じく頻出順に並べると、次のようになります。

image.png

ワードクラウド

上記のような頻出単語のようなテキストをもっと見やすくするために使われる可視化の手法として、ワードクラウドというのがあります。Exploratoryではこのタイプのチャートはデフォルトではサポートされていないのですが、いわゆる、RMarkdownであるノートの中でRのwordcloudというパッケージを使うことで実現することができます。

ちなみに、wordcloudを使って可視化をするには単語とその頻出件数を事前に計算しておく必要があります。

単語の頻出回数を集計

.token列のメニューからグループ化を選択します。

image.png

続いて、.token列のメニューから集計(Summarize) -> n(カウント)を選択します。

image.png

新規列名を入力して、実行ボタンを押します。すると、単語と頻出回数が計算されます。

image.png

これで準備ができました。

ノートの作成

次に、ノート上にワードクラウドを表示して、単語の頻出度を視覚的にとらえてみましょう。画面左手のドキュメントの横にあるプラスボタンを押して、ノートを選びます。

image.png

名前を入力して、作成をクリックします。

image.png

次にノートに以下のように記述します。

{r echo=FALSE, cache=FALSE, warning=FALSE, message=FALSE}
library( wordcloud )
library( RColorBrewer )
par(family = "HiraKakuProN-W3")
wordcloud(tweet_abe_word_cloud$.token,tweet_abe_word_cloud$token_freq, 
colors = brewer.pal( 8, "Dark2" ),
scale = c( 6, 1 ), min.freq = 8, random.order = FALSE, rot.per = .05)

scaleパラメータで文字サイズを変更したり、rot.perパラメータで縦横比率を変更できます。色はRColorBrewer というパッケージを使って、数量に応じて5つ(緑の濃淡)の色になるように指定しています。この例では、文字の大きさも色の頻出回数に基づくため、どちらも同じ情報の可視化になっています。

出力結果は以下のようになります。支持、拉致といった頻出回数の多い単語が大きめのフォントサイズで表示されていることが確認できます。

image.png

長くなってきたのでは、Part 1はここまでにして、Part 2ではトークンからNグラムを作成し、TF-IDF、クラスタリングとさらにテキスト分析をしてみます。

まとめ

今日はTwitterから安倍首相に言及されたTweetをインポートし、RMeCabでトークナイズして、ストップ・ワード等を取り除き、頻出する単語が何かを確認するところまで見てきました。

まだExploratory Desktopをお持ちでない場合は、こちらから30日間無料でお試しいただけます。

データサイエンスを本格的に学んでみたいという方へ

6月の中旬に、Exploratory社がシリコンバレーで行っているトレーニングプログラムを日本向けにした、データサイエンス・ブートキャンプが東京で行われます。データサイエンスの手法を基礎から体系的に、プログラミングなしで学んでみたい方、そういった手法を日々のビジネスに活かしてみたい方はぜひこの機会に、参加を検討してみてください。

Sign up for free and join this conversation.
Sign Up
If you already have a Qiita account log in.