LoginSignup
41
41

More than 5 years have passed since last update.

python3でword2vecのtrainで新規単語を登録【推しのベクトルを求めたい】

Last updated at Posted at 2019-02-02

学習済みのmodelにtrainする

はじめに

はじめまして。私はpythonのword2vecで遊んでいる者です。初めての投稿になります。

趣味でやっているだけなので記述は美しくないかもしれません...
改善点等ありましたらコメントで教えていただけると助かります!
ソースコードや説明が甘いところがあるとは思いますが温かい目で見てくださると幸いです。

学習済みmodelをloadして、そこにtrainする記事が見当たらなかったので
備忘録として残しておきたかっただけです。

環境

・macOS Mojave -10.14
・python3 -3.6.1
・mecab(mecab-ipadic-neologdインストール済み)
・gensim -3.7.1(バージョンが低いと新規登録できない)

やりたいこと

学習済みのword2vecのmodelに新規単語を追加したい。

準備

環境整備

・python3等の環境を整える
参考:Python3の環境をささっと整える(Mac版)

・word2vecが使えるようにする(mecabやその辞書の関係も)
参考:Python3で「Mecab」と「Word2vec」をインストールする方法

・gensim word2vecで学習されたmodelを用意する
参考:【Python】Word2Vecの使い方

環境を確認

・pythonのバージョン確認

$ python3 --version

ex: Python 3.6.1

・gensimのバージョン確認

$ pip list | grep gensim

ex: gensim 3.7.1
*低いバージョンのgensimがインストールされている場合(再インストール)

$ pip uninstall gensim
$ pip install gensim

やってみた

modelに無い単語がkeyErrorになることを確認

私はかなりのキモヲタなので、推しvtuberのベクトルを調べたいなってことで
現在の推し、ハニーストラップの『周防パトラ』を例にやってみます。
周防パトラ
【パトラちゃん様のtwitter】←

このw2v.getVec()は単語が未登録(KeyError)になると全ての要素が0のベクトルを返す仕様です。

w2v.py
# coding: utf-8 
from gensim.models import word2vec
import logging
import sys
import numpy as np

logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)

class W2v():
    MODEL = None

    def __init__(self):
        if W2v.MODEL is None:
            #学習モデル読み込み
            W2v.MODEL = word2vec.Word2Vec.load("./wiki.model")

    def similarity(self, word1, word2):
        try:
            print("近似度計算: "+word1+" - "+word2)
            return W2v.MODEL.wv.similarity(word1, word2)
        except KeyError as e:
            print(e)
            return -1.0

    def getVec(self, word):
        try:
            return W2v.MODEL.wv[word]

        except KeyError:
            return np.zeros(200)

if __name__ == "__main__":
    w2v = W2v()

    word = "周防パトラ"

    print(word + "=")
    print(w2v.getVec(word))

    #単語数の確認
    print(len(W2v.MODEL.wv.vocab))

実行結果:
スクリーンショット 2019-02-02 22.44.49.png
残念ながら、『周防パトラ』は学習データに存在せずKeyErrorになりました。
ですが何としても推しベクトル?を学習させたい...。というわけでここからが本題です。

コーパス

そもそも、modelを学習させるためにはコーパスが必要です。
コーパスはmecabを使ってテキストを半角スペースで単語ごとに区切ったものです。
つまり、コーパスを作るにはmecabの辞書に登録したい単語や、その単語に関連する単語が
登録されていなければいけないのです。(まぁ、手動でやるのも手なんですけどネ...)
今回は"vtuber"や"ハニーストラップ"等の『周防パトラ』に関連性が高そうで
辞書に登録されていない単語を"ユーザー辞書"に登録していく必要があります。

未登録語を調べる

mecabに必要な単語を繋げた文字列を投げて物理的に確かめます。

test_mecab.py
import sys
import MeCab

m = MeCab.Tagger("-d /usr/local/lib/mecab/dic/mecab-ipadic-neologd")

text = m.parse("周防パトラvtuberバーチャルユーチューバーハニーストラップいちからカニカマASMR蒼月エリ堰代ミコ西園寺メアリ島村シャルロット")

print(text)

実行結果:
スクリーンショット 2019-02-02 23.43.38.png
まぁ、思った通りの結果ですね。
というか、私がmodelを学習させた時には既にvtuberが話題になってたんだ...。
(しっかり"vtuber"がmecab-ipadic-neologdに登録されてるし...。)
固有名詞("周防パトラ"や"いちから")等は流石に登録されていませんでした。
"ハニーストラップ"はおそらく消去法で切り出されたのでしょう。
(ASMRもおんなじパターン???)

mecabの辞書って?

mecabは単語を切り分ける時、辞書を参照して単語を判定しています。
mecabには"システム辞書"と"ユーザー辞書"が存在していて
運用時には、一つの"システム辞書"と複数の"ユーザー辞書"を組み合わせることができます。
今回は"ユーザー辞書"に単語を登録していきます。
こちらを参考にさせてもらいました→MeCabにユーザー辞書を追加する

ユーザー辞書生成:csvファイルを作る

user_dic.csv
周防パトラ,-1,-1,1,名詞,一般,*,*,*,*,*,*,*,mydic
ASMR,-1,-1,1,名詞,一般,*,*,*,*,*,*,*,mydic
ハニーストラップ,-1,-1,1,名詞,一般,*,*,*,*,*,*,*,mydic
いちから,-1,-1,1,名詞,一般,*,*,*,*,*,*,*,mydic
...

こんな感じのcsvファイルを作ります。本来ならこの作業もプログラムで
やったほうがいいですし、重みの設定とかもしたほうがいいですね。
まぁ、今回はメインじゃ無いので省きます。

ユーザー辞書生成:コンパイル

csvのままではmecabが辞書として使えないので、コンパイルが必要です。
以下のコマンドでコンパイルできます。通常はコピペでできるかと思います。
成功すると、user_dic.csvと同じディレクトリにuser_dic.dic
というファイルが生成されるはずです。

/usr/local/Cellar/mecab/0.996/libexec/mecab/mecab-dict-index \
-d /usr/local/lib/mecab/dic/ipadic \
-u user_dic.dic \
-f utf-8 \
-t utf-8 \
user_dic.csv 

ユーザー辞書生成:mecabにPATHを設定

mecabにユーザー辞書の場所を教えなくてはなりません。
以下コマンドでファイルをviで開きます。

sudo vi /usr/local/etc/mecabrc

開くとこんな感じになってると思いますが、
  ;user_dic =
の所に先ほどコンパイルしてできたuser_dic.dicのパスを指定します。

/usr/local/etc/mecabrc
;
; Configuration file of MeCab
;
; $Id: mecabrc.in,v 1.3 2006/05/29 15:36:08 taku-ku Exp $;
;
dicdir =  ~~

; userdic = user_dic.dicのパス

; output-format-type = wakati
; input-buffer-size = 8192

; node-format = %m\n
; bos-format = %S\n
; eos-format = EOS\n

ユーザー辞書生成:確認

以下のコードでユーザー辞書が反映されているかを確認します。

test_mecab.py
import sys
import MeCab

m = MeCab.Tagger("-u 【user_dic.dicのパス】 -d /usr/local/lib/mecab/dic/mecab-ipadic-neologd")

text = m.parse("周防パトラvtuberバーチャルユーチューバーハニーストラップいちからカニカマASMR蒼月エリ堰代ミコ西園寺メアリ島村シャルロット")

print(text)

実行結果:
スクリーンショット 2019-02-03 0.41.37.png
ちゃんと先ほど登録した単語がパースされていますね。
これでようやくコーパスが作れます。

コーパスを作る

以下のコードでsuou_patra.txtをcorpus.txtにパースしていきます。
suou_patra.txtは『周防パトラ』をgoogleで検索してヒットしたページの
テキストのみを複数つなぎ合わせたものを、さらにコピペしてデータ量をかさ増し
しています。本当はhtmlを取ってきてやるのが良さそうなんですが、ここでは
地道に手作業です。最終的に60kB程になりました。これ、推しの情報を調べたので
苦ではありませんでしたが、そうでなければやりたく無い作業です;;

corpus.py
import MeCab
import re
import os
import sys

mecab = MeCab.Tagger('-u 【user_dic.dicのパス】 -d /usr/local/lib/mecab/dic/mecab-ipadic-neologd')

class Corpus:
    def __init__(self, text):
        self.text = text
        self.formated = ""
        self.corpus = []

        self.format()
        self.split()

    def split(self):
        node = mecab.parseToNode(str(self.formated))
        while node:
            PoS = node.feature.split(",")[0]

            if PoS not in "BOS/EOS":#mecabの仕様で出てくるやつ、邪魔
                self.corpus.append(node.surface)

            node = node.next

    def format(self):
        ret= re.sub(r'https?://[\w/:%#\$&\?\(\)~\.=\+\-…]+', "", self.text)#URL
        ret = re.sub(r"[0-9]+", "0", ret)#数字を0に
        ret = re.sub(r"[!-/]", "", ret)#半角記号
        ret = re.sub(r"[:-@]", "", ret)#半角記号
        ret = re.sub(r"[[-`]", "", ret)#半角記号
        ret = re.sub(r"[{|}-]", "", ret)#半角記号
        ret = re.sub(r"[”’()【】〔〕《》=〜『』「」+*、。・_?!/◀▲:]", "", ret)#全角記号
        ret = re.sub("[\n]", "", ret)#改行、スペース

        self.formated = ret

    def rtn_corpus(self):
        ret = " ".join(self.corpus)
        return ret

if __name__ == "__main__":
    input_file = "suou_patra.txt"
    output_file = "corpus.txt"

    with open(input_file) as in_f:
        lines = in_f.readlines()
        with open(output_file, mode = "w") as out_f:
            for l in lines:
                text = Corpus(l).rtn_corpus()
                out_f.write(text + " ")

実行すると、こんな感じのcorpus.txtが生成されていると思います。
スクリーンショット 2019-02-03 1.24.21.png

新規単語が追加できるか試す

word2vecのmodelにはtrainという再学習のためのメソッドが用意されています。
古いバージョンではtrainしても新規単語を登録することはできませんでしたが、
最近のバージョンだとできるようになったようです。
では試しに以下のコードを実行してみます。

w2v.py
# coding: utf-8 
from gensim.models import word2vec
import logging
import sys
import numpy as np

logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)

class W2v():
    MODEL = None

    def __init__(self):
        if W2v.MODEL is None:
            #学習モデル読み込み
            W2v.MODEL = word2vec.Word2Vec.load("./wiki.model")

    def similarity(self, word1, word2):
        print("近似度計算: "+word1+" - "+word2)

        try:
            return W2v.MODEL.wv.similarity(word1, word2)
        except KeyError as e:
            print(e)
            return -1.0

    def getVec(self, word):
        try:
            return W2v.MODEL.wv[word]

        except KeyError:
            return np.zeros(200)

    #再学習、上書きを行うメソッド
    def updateTrain(self, corpus):
        sentences = word2vec.Text8Corpus(corpus)
        W2v.MODEL.build_vocab(sentences, update=True)
        W2v.MODEL.train(sentences, total_examples=W2v.MODEL.corpus_count, epochs=W2v.MODEL.iter)
        W2v.MODEL.save("wiki.model")

if __name__ == "__main__":
    w2v = W2v()

    word = "周防パトラ"

    w2v.updateTrain("corpus.txt")

    print(word + "=")
    print(w2v.getVec(word))

    #単語数の確認
    print(len(W2v.MODEL.wv.vocab))

実行結果:
スクリーンショット 2019-02-03 1.28.50.png
よっしゃ!『周防パトラ』のベクトルが追加学習できました!!!!
捕捉ですけど、単語数は674,450から6単語増えて674,456になってました。

遊んでみる

せっかくなので、類似度が高いものを10件取ってきてみます。

w2v.py
# coding: utf-8 
from gensim.models import word2vec
import logging
import sys
import numpy as np

logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)

class W2v():
    MODEL = None

    def __init__(self):
        if W2v.MODEL is None:
            #学習モデル読み込み
            W2v.MODEL = word2vec.Word2Vec.load("./wiki.model")

    def similarity(self, word1, word2):
        print("近似度計算: "+word1+" - "+word2)

        try:
            return W2v.MODEL.wv.similarity(word1, word2)
        except KeyError as e:
            print(e)
            return -1.0

    def most_similar(self, word, max_size):
        try:
            return W2v.MODEL.most_similar(positive=[word], topn=max_size)
        except KeyError as e:
            return []

    def getVec(self, word):
        try:
            return W2v.MODEL.wv[word]

        except KeyError:
            return np.zeros(200)

    #再学習、上書きを行うメソッド
    def updateTrain(self, corpus):
        sentences = word2vec.Text8Corpus(corpus)
        W2v.MODEL.build_vocab(sentences, update=True)
        W2v.MODEL.train(sentences, total_examples=W2v.MODEL.corpus_count, epochs=W2v.MODEL.iter)
        W2v.MODEL.save("wiki.model")

if __name__ == "__main__":
    w2v = W2v()

    word = "周防パトラ"

    result = w2v.most_similar(word, 10)

    for r in result:
        print(r[0], '\t', r[1])

    #単語数の確認
    print(len(W2v.MODEL.wv.vocab))

実行結果:
スクリーンショット 2019-02-03 1.41.13.png
まぁ、名詞以外のゴミが入っているのは気になりますが、"Vtuber","ハニーストップ"が上位に来ているので成功ですね。コーパスにする時に、名詞や動詞のみでやると更に精度が上がりそうです。ちゃっかり、"オタク"が上位に来ているのが面白い、流石はパトラちゃん様...。他のメンバーもやってみたいし、自動でコーパスを生成するプログラムなんてのも面白いかな〜なんて思います。
今回はここまで。ありがとうございました!!ハニスコ!!!

41
41
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
41
41