Help us understand the problem. What is going on with this article?

テキストデータで特徴量選択をする

More than 3 years have passed since last update.

この記事で紹介すること

てかなんで、特徴量選択とか必要なの?

これを読んでいる方は、すでにテキストデータから特徴量(以下、素性)を抽出して何かしろの機械学習を試したことがある方だと思います。たとえば、文書分類とかですね。

Qiitaをサクッと探してみてもいくつか「やってみた系」の記事が見つかります。
モーニング娘。のブログを自動分類してみました。
Rで自然言語処理。ナイーブベイズで文書分類を試みる

文書分類では、単語を素性に利用して、行列データを作成するのがベーシックな手法です。頻度行列と呼ばれる行列ですね。

さてさて、ここで1つ疑問が出てきます。分類に関係ないような単語も多く含まれているけど、それって大丈夫なの?

よい疑問です。大丈夫ではないです。
分類に関係ないような素性が多く含まれていると、それはノイズとして働いてしまいます。
ノイズが分類性能の向上を阻むのですねー。こまった。こまった。

じゃあそこで、「関係する素性だけを残せばいーじゃん」というアイディアが出てきます。
そう、これが、特徴量選択というやつなのです。

特徴量選択には2つのメリットがあります。

  1. 機械学習アルゴリズムにぶちこむ前に、特徴量選択をきちっとして、モデルの性能向上(ランダムフォレストみたいに、アルゴリズムそのものに特徴量選択が内包されているケースもありますが、それはまた別の話)
  2. データの観察を容易にする

特徴量選択を簡単にできるパッケージつくったよー

特徴量選択を真面目にやっていくと結構めんどいです。
そこで、よく使うであろう特徴量選択の手法をパッケージ化しました。

Python3.xで動きます。Python2.xはそのうち対応します。

サポートしてる手法

  • TF-IDF: ベーシックな手法です。実はScikit-learnのクラスを呼んでいるだけです。
  • PMI: 文書ラベルと素性の相関性を考慮する手法です。参考の記事をどーぞ
  • SOA: PMIの弱点を補った手法です。文書ラベルと素性の「非関連度」をマイナスで算出することができます。
  • BNS: 2クラス分類にしか使えません。ただし、学習データのラベルに偏りがある場合には、すぐれた結果を出すことが知られています。参考の記事をどーぞ

パッケージの特徴

(たぶん)早い

内部処理はすべてscipyの疎行列を利用しています。
また、分散処理できる部分はすべてマルチプロセス化しているため、それなりに早いです。

前処理をけっこーテキトーにやってくれる。

形態素分割した状態でdictにして、放り込んでもらえれば、疎行列の構築までやってくれます。

たとえば、入力のdictはこんな感じ

input_dict = {
    "label_a": [
        ["I", "aa", "aa", "aa", "aa", "aa"],
        ["bb", "aa", "aa", "aa", "aa", "aa"],
        ["I", "aa", "hero", "some", "ok", "aa"]
    ],
    "label_b": [
        ["bb", "bb", "bb"],
        ["bb", "bb", "bb"],
        ["hero", "ok", "bb"],
        ["hero", "cc", "bb"],
    ],
    "label_c": [
        ["cc", "cc", "cc"],
        ["cc", "cc", "bb"],
        ["xx", "xx", "cc"],
        ["aa", "xx", "cc"],
    ]
}

ちょっと遊んでみる

せっかく作ったので、試してみることにします。
試してみたipythonノートはGistに置いておきました。

ipythonノートではscipyと形態素解析ラッパーパッケージ特徴量選択パッケージを使います。

テキストは5つのジャンルを用意しました。
該当しそうなテキストをネットからひろってきて、コピペではっつけて作りました。(これぞ集合知

5つのジャンルは

  • 航空機に関するwiki記事
  • アダルトビデオ業界に関するニュース記事
  • コナンの映画に関するニュース記事
  • イランの街に関するwiki記事
  • テロん関するニュース記事

です。1

PMIとSOAを試してみました。

結果から抜粋してみます。

PMIの結果

スコアが高い順にこんな結果がみられました。

{'label': 'iranian_cities', 'score': 0.67106056632551592, 'word': '人口'},
{'label': 'conan_movies', 'score': 0.34710665998172219, 'word': '登場'},
 {'label': 'av_actress', 'score': 0.30496452198069324, 'word': 'AV女優'},
 {'label': 'av_actress', 'score': 0.26339266409673928, 'word': '出演'},
{'label': 'av_actress', 'score': 0.2313987055319647, 'word': '女性'},

「う、うん。そうだよね〜」という単語が並んでいます。

ラベルとの関連性がわかりやすい単語が高い重み付けされているので、特徴量選択という意味では成功でしょう。

データの観察、という意味では特に示唆はなさそうです。

逆にスコアが低い箇所はどうなっているでしょうか?

 {'label': 'av_actress', 'score': 5.7340738217327128e-06, 'word': '男'},
 {'label': 'conan_movies', 'score': 5.7340738217327128e-06, 'word': '3'},
 {'label': 'conan_movies', 'score': 5.7340738217327128e-06, 'word': '化'},
 {'label': 'conan_movies', 'score': 5.7340738217327128e-06, 'word': '表記'},
 {'label': 'terror', 'score': 5.7340738217327128e-06, 'word': '型'}

?という結果も混じっていますね。
文書の中で機能語的に利用された単語なのだと思われます。
数字の「3」が混じってしまっているのは、形態素解析のミスですね・・・(MecabのNeologd辞書を利用するとこういうことはよく起きます)

機能語的な単語を低いスコアに抑えた。という点で、うまくいっているように見えます。

SOAの結果

若干、並びが変わりました。
SOAはPMIの式をベースにしているので、こういうことはよくあります(たぶん)

[{'label': 'conan_movies', 'score': 5.3625700793847084, 'word': '登場'},
 {'label': 'iranian_cities', 'score': 5.1604646721932461, 'word': '人口'},
 {'label': 'av_actress', 'score': 5.1395513523987937, 'word': 'AV女優'},
 {'label': 'av_actress', 'score': 4.8765169465650002, 'word': 'さ'},
 {'label': 'av_actress', 'score': 4.8765169465650002, 'word': 'ん'},
 {'label': 'av_actress', 'score': 4.8765169465650002, 'word': '女性'},
 {'label': 'terror', 'score': 4.8765169465650002, 'word': 'シリア'},

では、逆にスコアが低くなった箇所をみてみましょう。
SOAにおけるスコアが低い部分は、「ラベルとの非関連度」と解釈できます。

{'label': 'terror', 'score': -1.4454111483223628, 'word': '人口'},
 {'label': 'iranian_cities', 'score': -1.6468902498643583, 'word': 'ところ'},
 {'label': 'iranian_cities', 'score': -1.6468902498643583, 'word': 'もの'},
 {'label': 'iranian_cities', 'score': -1.6468902498643583, 'word': '中'},
 {'label': 'iranian_cities', 'score': -1.6468902498643583, 'word': '製造'},
 {'label': 'iranian_cities', 'score': -2.009460329249066, 'word': 'こと'},
 {'label': 'airplane', 'score': -3.3923174227787602, 'word': '人'}]

なんだか、いまいちパッとしませんね。

文書中での頻度を調べてみると、この単語は出現文書数が1回か2回しかないのです。
つまり、「ラベルとの関連は薄い」と言ってもよく、マイナスの値が大きくなったのは妥当と言えます。

まとめ

この記事では、特徴量選択の話と、特徴量選択を簡単にできるパッケージの話をしました。

今回は、特徴量選択をした後の文書分類の性能までチェックしませんでした。

が、先行研究で十分に有効性が示されている手法です。
文書分類系のタスクの際には、ぜひ、ご利用ください。

pip install DocumentFeatureSelectionでインストールできますので。

補足

パッケージのバージョン1.0から 入力データが柔軟に設計できるようになりました。

1例で、(表層語, POS)をbigramにして、特徴量設計したいときは、こんな感じのタプルの配列を与えることができます。ここでは、(("he", "N"), ("is", "V"))が1つの特徴量ですね。

input_dict_tuple_feature = {
    "label_a": [
        [ (("he", "N"), ("is", "V")), (("very", "ADV"), ("good", "ADJ")), (("guy", "N"),) ],
        [ (("you", "N"), ("are", "V")), (("very", "ADV"), ("awesome", "ADJ")), (("guy", "N"),) ],
        [ (("i", "N"), ("am", "V")), (("very", "ADV"), ("good", "ADJ")), (("guy", "N"),) ]
    ],
    "label_b": [
        [ (("she", "N"), ("is", "V")), (("very", "ADV"), ("good", "ADJ")), (("girl", "N"),) ],
        [ (("you", "N"), ("are", "V")), (("very", "ADV"), ("awesome", "ADJ")), (("girl", "N"),) ],
        [ (("she", "N"), ("is", "V")), (("very", "ADV"), ("good", "ADJ")), (("guy", "N"),) ]
    ]
}

タプルを入力文の特徴量として与えることができるので、ユーザーが自由に特徴量の設計をできます。2
例えば、こんなタスクに使えます、という例

  • (表層語, 何かタグ)を特徴量にしたいとき
  • 係り受けのエッジラベルを特徴量にしたいとき


  1. よく、「どうしてサンプルテキストにアダルトビデオとペルシア語とかイランが入っているんですか?」と聞かれます。それは、アダルトビデオは私が好きだからです。ペルシア語は、勉強していたので、愛着があるからです。 

  2. 従来でも表層語_タグをstr型にして、無理くりに特徴量抽出することもできます。が、それって、何かスマートじゃないじゃん?前処理と後処理が必要じゃん?と思ったので、この機能を入れました。 

Ultra-grand-child
ぼくは「自然言語処理えんじにあ」のつもりなんですが、 いつのまにか「でーたさいえんてぃすと」と名付けられ、 最近では「えーあいじんざい」と呼ばれています。
https://kensuke-mitsuzawa.github.io
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
Comments
No comments
Sign up for free and join this conversation.
If you already have a Qiita account
Why do not you register as a user and use Qiita more conveniently?
You need to log in to use this function. Qiita can be used more conveniently after logging in.
You seem to be reading articles frequently this month. Qiita can be used more conveniently after logging in.
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
ユーザーは見つかりませんでした