LoginSignup
3
3

More than 3 years have passed since last update.

日本語テキストのトピック抽出1 基礎編

Posted at

Aidemy 2020/10/30

はじめに

 こんにちは、んがょぺです!バリバリの文系ですが、AIの可能性に興味を持ったのがきっかけで、AI特化型スクール「Aidemy」に通い、勉強しています。ここで得られた知識を皆さんと共有したいと思い、Qiitaでまとめています。以前のまとめ記事も多くの方に読んでいただけてとても嬉しいです。ありがとうございます!
 今回は、日本語テキストのトピック抽出の1つ目の投稿になります。どうぞよろしくお願いします。

*本記事は「Aidemy」での学習内容を「自分の言葉で」まとめたものになります。表現の間違いや勘違いを含む可能性があります。ご了承ください。

今回学ぶこと
・自然言語処理における深層学習
・Embedding,RNN,LSTM,Softmaxなど

自然言語処理における深層学習

・自然言語処理の中で使われる深層学習には、機械翻訳や自動要約、質問への自動応答などが挙げられる。
・このような自然言語処理において、ニューラルネットワークのモデルを使うと、誤差逆伝播法によって単語のベクトル(Embedding)を、文脈を考慮しながら、かつ次元を押さえながら学習できるという利点がある。

Embedding

Embeddingとは「埋め込み」という意味である。単語を扱うニューラルネットワークを構築する際に一番はじめに行う処理である。具体的には、単語という記号をd(100〜300程度)次元に埋め込むという処理である。
・Embeddingは「model.add(Embedding(引数))」というように行う。引数は以下の通り。
 ・input_dim:語彙(単語の種類)の数
 ・output_dim:単語ベクトルの次元dの大きさ
 ・input_length:各文の長さ

RNN

RNNとは「再帰ニューラルネット」というもので、自然言語処理の深層学習でよく使われるニューラルネットワークである。任意の長さを持つ入力列(可変長系列)を扱うことに優れる

LSTM

LSTMはRNNの一種で、RNNの欠点を補う機能を持つ。RNNは時間方向に深いニューラルネットワークなので、初期の方に入力した値は「忘れて」しまうという欠点がある。すなわちRNNは長期記憶が苦手だが、LSTMは「LongShortTermMemory」という名前の通り、短期記憶も長期記憶も行える

LSTMの実装

・LSTMもkerasからインポートして簡単に実装することができる。Embeddingと同様「model.add(LSTM())」で使用できる。引数については以下の通り。
 ・units:隠れ状態ベクトルの次元数(100~300程度)
 ・return_sequences:「True」で全ての入力系列に対する出力系列(隠れ状態ベクトル)を出力、「False」で最後の時刻Tにおける隠れ状態ベクトルのみを出力。

BiLSTM

・LSTMは入力系列xを1から順に最後まで入力していくが、逆に、後ろから順に入力する手法を取ることもできる。これを応用して、双方向から情報を入力する「BiLSTM」という手法がよく用いられる。日本語では「双方向再帰ニューラルネット」という。
・BiLSTMの利点は、一つのある時刻において、「先頭から伝播してきた情報」と「後ろから伝播してきた情報」の二つを取得することができる点である。
・実装の方法は、kerasの「model.add(Bidirectional(引数))」を使う。第一引数には、前項のLSTM()をそのまま格納し、第二引数には「merge_mode」として2方向のLSTMをどのようにつなげるかを指定する。
・第二引数には['sum','mul','concat','ave']のどれか一つを指定する。sumは要素を足してつなげ、mulはかけることで繋げる。concatは結合してつなげ、aveは平均してつなげる。

Softmax関数

・今回の自然言語に限らず、クラス分類を行う深層学習においては、ニューラルネットの出力層に一番近い層ではSoftmax関数が使われる。「ディープラーニング基礎」でも、この関数は使われていた。
・「男女識別」の際に確認したことであるが、出力にSoftmaxを使うことで、各クラスの出力の確率分布の総和が1となるような出力がなされるようになる。
・これまではSequentialモデルの中で、「model.add(Activation("softmax"))」のように使用していたが、Sequentialを使わずにモデルを記述する「Functional API」の場合は「Activation('softmax')(x)」というように記述する。このxには[バッチサイズ,クラス数]を渡す。

Attention

Attentionとは

Attentionとは「Attention Mechanism(注意機構)」のことである。これは機械翻訳や自動要約などで頻出のメカニズムである
・例えば質問への自動応答の例を挙げると、ある質問文のリストsとそれに対応する回答文のリストtがあったとする。この時機械に「tがsに対する回答文として妥当かを判断させる」ということを行いたいとき、RNNによってこれらの文を隠れ状態ベクトルに変換し、ある時刻におけるsの隠れ状態ベクトルを考慮してtの特徴を計算することで、sの情報(sのどこに注意するか)を考慮したtの情報を取得できるため、上記判断が可能となる。

Attentionの実装

・Attentionの実装にあたって、Sequentialモデルでは実装することができないので、前々項で見た「Functional API」を使う。Functional APIは、ただLayerをaddするだけだったSequentialモデルと違って複雑ではあるが、その分自在にモデルの構築を行うことが可能になる
・Functional APIでのモデルの構築は「Model(inputs,outputs)」で行う。そのため、モデル構築の際に渡す「inputs」と「outputs」をあらかじめ作成する必要がある
inputsの作成については、入力層を「Input(shape=(文の長さ,))」で作成(第二引数にbatch_sizeは入れなくてOK)し、これにEmbeddingを適用し、これをさらにBiLSTMにしたら完成となる。入力層が複数あるときは同じものを複数作成すれば良い
outputについてはAttentionを実装することで作成する。今回で言えば、二つの文のBiLSTM「bilstm1」「bilstm2」について「dot()」で行列積を算出し、それに対しSoftmax関数を適用させ、更にこれとbilstm1との行列積を算出し、これとbilstm2を「concatenate()」で連結させたものを出力層として形成させることでoutputに渡すデータが完成する。

・具体的なコードは以下の通り
スクリーンショット 2020-10-30 10.41.49.png

Dropout

・(復習)Dropoutは過学習を防ぐために、一部データをランダムで「0」に設定して学習させる手法である。
・Sequentialモデルを使う場合は「model.add(Dropout(割合))」で使用できるが、今回のようにFunctional APIを使う場合は「Dropout(割合)(x)」のように使えば良い。

まとめ

・自然言語処理の深層学習では、まずEmbeddingと言う処理を行い、単語をベクトルに変換する。
・この深層学習ではRNNというモデルが使われる。この中でも、長期記憶に優れたLSTMを使うことが圧倒的に多い。また、このLSTMをデータの両端から適用する「BiLSTM」を使うことで入力系列全体の情報を考慮することができる。
・アウトプット時にAttentionを実装することで、あるベクトルの情報を、別のベクトルの情報を考慮した上で抽出できる。この技術は自然言語処理では頻出である。
・同様に、出力層でDropoutすることでデータの汎化が防げる。

今回は以上です。最後まで読んでいただき、ありがとうございました。

3
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
3