3
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

言語処理100本ノックで MATLAB 入門!第9章: RNN, CNN (問題80-88)

Posted at

はじめに

もしかして **「え?MATLAB で言語処理やるの??」**と思いました・・?(8回目)

言語処理 100 本ノック 2020 で MATLAB の練習をするシリーズ。今回は第9章: RNN,CNN の問題80から問題88までをやってみました.(問題89は少々お待ちを・・・)

一部都合よく問題文を読み替えていますがご容赦ください.気になるところあれば是非コメントください.今回は特に,RNN/CNNの実装ではなくMATLABをどう使ったらできるか(できないか)という観点でのトライアルになります.

実行環境

  • MATLAB R2020a (Windows 10)
  • Text Analytics Toolbox
  • Deep Learning Toolbox

**Livescript 版(MATLAB)は GitHub: NLP100-MATLAB1 に置いてあります。**そしてノックを一緒にやってくれる MATLAB 芸人は引き続き募集中です!詳細は GitHub の方で.

他章へのリンク

80. ID番号への変換

問題51で構築した学習データ中の単語にユニークなID番号を付与したい.学習データ中で最も頻出する単語に1,2番目に頻出する単語に2,……といった方法で,学習データ中で2回以上出現する単語にID番号を付与せよ.そして,与えられた単語列に対して,ID番号の列を返す関数を実装せよ.ただし,出現頻度が2回未満の単語のID番号はすべて0とせよ.

問題51で構築した学習データとありますが,問題51のお題は特徴量設計でしたので,人によっては単語情報は破棄してしまっているかもしれません.そこで,ここでは問題50で作成したデータファイルから出発します.(データファイル train.txt がMATLAB path 上にあるとします.)

まず,学習データを読み込みます.

Code
dataTbl = readtable('train.txt');

前処理として,形態素解析,StopWords(主に冠詞・前置詞などの機能語)の削除,原形への変換,句読点との削除,極端に短い語・長い語の削除を行います.(原形への変換は,あとでword2vecを使う時にうまくないのでここでは行いません.)

Code
str = dataTbl.Title;
docs = tokenizedDocument(str);       
docs = addPartOfSpeechDetails(docs);
docs = removeStopWords(docs);
% docs = normalizeWords(docs);
docs = erasePunctuation(docs);
docs = removeShortWords(docs,2);
docs = removeLongWords(docs,15);

単語を頻度順にソートして,IDを付与する(エンコードする)には,wordEncoding を使うと便利です.ただし,出現頻度でエンコード対象単語を絞ることはできませんので,bagOfWords モデルを生成して.上位何語をエンコードするかを決めておきます.

Code
bows = bagOfWords(docs);
nWordsToEncode = nnz(sum(bows.Counts)>1);

enc = wordEncoding(docs,'Order','Frequency','MaxNumWords',nWordsToEncode);

str = ["America","China","world"];
wordID = word2ind(enc,str);
disp(wordID);
Output
    37     5   391

単語列からID列への変換関数は次のようになりました.

Code(Display)
function wordID = word2ID(enc,words)

% 入力引数のチェック
arguments
  enc wordEncoding
  words (1,:) string
end

wordID = zeros(size(words)); % 返値を0で初期化しておきます

% 入力単語が入力されたエンコードされているかどうかを確認します.
lidxWordInEnc = isVocabularyWord(enc,words); 

% Keyに登録されている単語に対して,エンコードされたIDを取得します.
tmpStr = words(lidxWordInEnc); % 
tmpID  = word2ind(enc,tmpStr);

% 出力を抽出したIDで置き換えます.(エンコードされていない単語に対しては0のままになります.)
wordID(lidxWordInEnc)=tmpID;

end

下の例で,"hogehoge"はエンコードされていない単語,"panda" は出現回数が1回だけの単語の例です.

Code
str = ["America","China","hogehoge","world","panda"];
wordID = word2ID(enc,str);
disp(wordID);
Output
    37     5     0   391     0

で・も・ね・・・ 学習データに対してエンコードしたIDを求めたいなら,次の1行で一発なのですね.

Code
wordID = doc2sequence(enc,docs);
disp(wordID{1});
結果はちょっと長いのでたたんでおきますね
Output
  1 列から 12 列

           0           0           0           0           0           0           0           0           0           0           0           0

  13 列から 24 列

           0           0           0           0           0           0           0           0           0           0           0           0

  25 列から 36 列

           0           0           0           0           0           0           0           0           0           0           0           0

  37 列から 48 列

           0           0           0           0           0           0           0           0           0           0           0           0

  49 列から 60 列

           0           0           0           0           0           0           0           0           0           0           0           0

  61 列から 68 列

           0           0           0         105        1399        1146        3793        2262

全ての文書に対するシーケンス長を揃えるために,ゼロパディングを行っているのと,エンコードされてない語は無視されることには気をつける必要があります.ゼロパディングが多すぎるのも効率が悪いので,一つの文書の単語数を制限することを考えます.各文書の単語数を調べてみると,一番長いのが111単語の文で,第二位が13語の文になっています.

Code
docs(doclength(docs)>12)
Output
ans = 
  2x1 tokenizedDocument:

    111 tokens: Best Reactions Supposed Video Solange Knowles Jay HipHopDX 1399983366398 210714 Report JayZ attacked Beyonce sister icmp WSB Atlanta www.wsbtv.com 1399983366584 210715 Drunk Love Cent Reacts Beyonce Defending Jay 1399983366926 210716 Brawl Find Happened AfterParty Sparked Radar Online 1399983367118 210717 Sure Solange Attack Memes Funny Completely Crushable 1399983367406 210718 Cent Dame Dash Throw Jabs Jay Solange Fight VIDEO 1399983367691 210719 Fox unveils schedule cutting back Idol Hudson HubTimes 1399985294553 210720 Fox lineup American Idol shrinking Batman prequel Gotham air Mondays Newsday 1399985294870 210721 American Idol Set Cut Down Single Two Hour Show Week 1399985295162 210722 Fox Upfront Scorecard Big Risks Dig Big Hole Variety variety.com 1399985295432 210723 Riddler Joker Confirmed Fox Gotham
     13 tokens: Tesla boss Elon Musk gives away firm electric car secrets bid boost market

111語の文は非常に特殊なケースなので,シーケンスの長さを13に設定するのには無理はないと考えられます.

Code
wordID = doc2sequence(enc,docs,"Length",13);

ここまでのプロセスを,サポート関数 preprocess としてまとめました.

`preprocess.m`
Code(Display)
function [wordID,enc] = preprocess(dataTbl,enc)

str = dataTbl.Title;
docs = tokenizedDocument(str);       
docs = addPartOfSpeechDetails(docs);
docs = removeStopWords(docs);
docs = normalizeWords(docs);
docs = erasePunctuation(docs);
docs = removeShortWords(docs,2);
docs = removeLongWords(docs,15);

bows = bagOfWords(docs);

nWordsToEncode = nnz(sum(bows.Counts)>1);

if nargin < 2
  enc = wordEncoding(docs,'Order','Frequency','MaxNumWords',nWordsToEncode);
end
wordID = doc2sequence(enc,docs,"Length",13);

end

この関数を使って,検証データ,評価データについても同じようにIDのシーケンスを求めておきます.

Code
trainTbl = readtable('train.txt');
[XTrain, enc] = preprocess(trainTbl);
YTrain = categorical(trainTbl.Category);

testTbl = readtable('test.txt');
XTest  = preprocess(testTbl,enc);
YTest  = categorical(testTbl.Category);

validTbl = readtable('valid.txt');
XValid  = preprocess(validTbl,enc);
YValid  = categorical(validTbl.Category);

81. RNNによる予測

ID番号で表現された単語列$x=(x_1 ,x_2 ,\dots ,x_T )$がある.ただし,$T$は単語列の長さ,$x_t \in {\mathbb{R}}^V$は単語のID番号のone-hot表記である($V$は単語の総数である).再帰型ニューラルネットワーク(RNN: Recurrent Neural Network)を用い,単語列$x$からカテゴリ$y$を予測するモデルとして,次式を実装せよ.

\vec{h_0 } =0,
\vec{h_t } =\overrightarrow{{{RNN}}} \left({{emb\left(x_t \right),\vec{h_{t-1} } }}\right),
y={{softmax}}\left(W^{(yh)} \vec{h_T } +b^{(y)} \right)

ただし, ${{emb}}\left(x\right)\in {\mathbb{R}}^{d_w }$は単語埋め込み(単語のone-hot表記から単語ベクトルに変換する関数),$\vec{h_t } \in {\mathbb{R}}^{d_h }$は時刻$t$の隠れ状態ベクトル,$\overrightarrow{{{RNN}}} \left(x,h\right)$は入力$x$と前時刻の隠れ状態$h$から次状態を計算するRNNユニット,$W^{(yh)} \in {\mathbb{R}}^{L\times d_h }$は隠れ状態ベクトルからカテゴリを予測するための行列,$b^{(y)} \in {\mathbb{R}}^L$はバイアス項である($d_w ,d_h ,L$はそれぞれ,単語埋め込みの次元数,隠れ状態ベクトルの次元数,ラベル数である).RNNユニット$\overrightarrow{{{RNN}}} \left(x,h\right)$には様々な構成が考えられるが,典型例として次式が挙げられる.

\overrightarrow{{{RNN}}} \left(x,h\right)=g\left(W^{(hx)} x+W^{(hh)} h+b^{(h)} \right)

ただし,$W^{(hx)} \in {\mathbb{R}}^{d_h \times d_w }$,$W^{(hh)} \in {\mathbb{R}}^{d_h \times d_h }$,$b^{(h)} \in {\mathbb{R}}^{d_h }$はRNNユニットのパラメータ,$g$は活性化関数(例えば${{tanh}}$やReLUなど)である.

なお,この問題ではパラメータの学習を行わず,ランダムに初期化されたパラメータで$y$を計算するだけでよい.次元数などのハイパーパラメータは,$d_w =300$,$d_h =50$など,適当な値に設定せよ(以降の問題でも同様である).

スミマセン.LSTM使っていいっすか?

入力層としてsequenceInputLayer を設定します.入力するデータは問題80で求めた文書毎の単語IDのシーケンス wordID です.この場合には,入力サイズは1とします.続いて,wordEmbeddingLayer ですが,この層は単語のシーケンスから単語ベクトル(単語埋め込み)を学習します.LSTM層では隠れ層の初期値を問題の指示の通りにゼロにしておきます.その後は,通常の全結合層,ソフトマックス層,分類層と続きます.

Code
inputSize = 1;
numWords = enc.NumWords;
nDimEmb  = 300;
nHidden  = 50;

numClasses = 4;

layers = [ ...
  sequenceInputLayer(inputSize) ...
  wordEmbeddingLayer(nDimEmb, numWords,'WeightsInitializer',"glorot") ...
  lstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(nHidden,1)) ...
  fullyConnectedLayer(numClasses) ...
  softmaxLayer ...
  classificationLayer];

82. 確率的勾配降下法による学習

確率的勾配降下法(SGD: Stochastic Gradient Descent)を用いて,問題81で構築したモデルを学習せよ.訓練データ上の損失と正解率,評価データ上の損失と正解率を表示しながらモデルを学習し,適当な基準(例えば10エポックなど)で終了させよ.

それでは,学習させてみましょう.学習オプションは,ミニバッチサイズをデータ数と同じにとる(後でミニバッチ化のお題があるので)他は,適当に決めてみます.

Code
options = trainingOptions('sgdm', ...
  'MaxEpochs',20, ...
  'MiniBatchSize',10672, ...
  'InitialLearnRate', 0.03, ...
  'Plots','training-progress', ...
  'ValidationData',{XValid, YValid}, ...
  'ValidationFrequency',1, ...
  "L2Regularization",0.01, ...
  "Verbose",false,"ExecutionEnvironment","cpu");

net = trainNetwork(XTrain,YTrain,layers,options);

figure_0.png

うーん.検証精度40%程度ですね.何が悪いんだろう・・・

83. ミニバッチ化・GPU上での学習

問題82のコードを改変し,$B$事例ごとに損失・勾配を計算して学習を行えるようにせよ($B$の値は適当に選べ).また,GPU上で学習を実行せよ.

パラメータを適宜変更して,もう一度流してみます.

Code
options = trainingOptions('sgdm', ...
  'MaxEpochs',40, ...
  'MiniBatchSize',256, ...
  'InitialLearnRate', 0.05, ...
  'LearnRateSchedule',"piecewise", ...
  'LearnRateDropFactor',0.8, ...
  'LearnRateDropPeriod',10, ...
  'Shuffle',"every-epoch", ...
  'Plots','training-progress', ...
  'ValidationData',{XValid, YValid}, ...
  'ValidationFrequency',41, ...
  "L2Regularization",0.0075, ...
  "Verbose",false,"ExecutionEnvironment","gpu");

net = trainNetwork(XTrain,YTrain,layers,options);

figure_1.png

だいぶ良くはなりましたが,やや過学習気味ですかね.いろいろとパラメータをいじってみても,検証精度80%がいいところでした.前半かなり暴れるのですが,学習率を下げると精度40%あたりのラインにトラップされてしまうみたいで,なかなかややこしいです.

84. 単語ベクトルの導入

事前学習済みの単語ベクトル(例えば,Google Newsデータセット(約1,000億単語)での学習済み単語ベクトル)で単語埋め込み${{emb}}\left(x\right)$を初期化し,学習せよ.

単語ベクトルを作成するためのWord2Vecモデルを読み込みます(学習済みモデルのファイルは同じフォルダにあるものと仮定しています).読み込みにはバイナリ形式のword2vecファイルを読み込むための関数readW2Vbin.m を自前で作ったので、それを使っています.興味のある方はMathWorks の FileExchange に上げてありますので,そちらをどうぞ.

Code
emb = readW2Vbin('GoogleNews-vectors-negative300.bin');

入力データに含まれる単語が単語ベクトルに含まれているかどうかを確認します.

Code
lidxIsVocab = isVocabularyWord(emb,enc.Vocabulary);

単語ベクトルに含まれている単語のみでのエンコーディングをやり直します.

Code
enc2 = wordEncoding(enc.Vocabulary(lidxIsVocab));

埋込み層のベクトル表現はつぎのようになります.

Code
embInit = word2vec(emb,enc2.Vocabulary);

データも改めてエンコードし直します.

Code
trainTbl = readtable('train.txt');
XTrain = preprocess(trainTbl,enc2);
YTrain = categorical(trainTbl.Category);

testTbl = readtable('test.txt');
XTest  = preprocess(testTbl,enc2);
YTest  = categorical(testTbl.Category);

validTbl = readtable('valid.txt');
XValid  = preprocess(validTbl,enc2);
YValid  = categorical(validTbl.Category);

後でまた使う時のために,データセットを保存しておきましょう.

Code
save('data4LSTM.mat','XTrain','YTrain','XValid','YValid','XTest','YTest',"enc2","embInit");

このベクトル表現を wordEmbeddingLayer のパラメータ'Weights' の値にセットすることで,埋め込み層の初期値として使用することができます.

Code
inputSize = 1;
numWords = enc2.NumWords;
nDimEmb  = 300;
nHidden  = 50;

numClasses = 4;

layers = [ ...
  sequenceInputLayer(inputSize) ...
  wordEmbeddingLayer(nDimEmb, numWords,'Weights', embInit') ...
  lstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(nHidden,1)) ...
  fullyConnectedLayer(numClasses) ...
  softmaxLayer ...
  classificationLayer];

学習オプションは前と同じにして・・・

Code
options = trainingOptions('sgdm', ...
  'MaxEpochs',40, ...
  'MiniBatchSize',256, ...
  'InitialLearnRate', 0.05, ...
  'LearnRateSchedule',"piecewise", ...
  'LearnRateDropFactor',0.8, ...
  'LearnRateDropPeriod',10, ...
  'Shuffle',"every-epoch", ...
  'Plots','training-progress', ...
  'ValidationData',{XValid, YValid}, ...
  'ValidationFrequency',41, ...
  "L2Regularization",0.0075, ...
  "Verbose",false,"ExecutionEnvironment","gpu");

net = trainNetwork(XTrain,YTrain,layers,options);

figure_2.png

埋め込み層の初期値が適切なので,少ないイタレーションで検証精度80%を超えています.検証精度はおおむね10~20エポックぐらいで頭打ちで,あとは過学習っぽいですね.

では,こちらのモデルについて,評価データを使って予測を行ってみましょう.

Code
Yhat = predict(net,XTest,'ReturnCategorical',true);

confusionchart(YTest,Yhat,'ColumnSummary',"column-normalized","RowSummary","row-normalized");

figure_3.png

サンプル数の少ないクラスの分類精度が相対的に悪くなっているのがわかります.

85. 双方向RNN・多層化

順方向と逆方向のRNNの両方を用いて入力テキストをエンコードし,モデルを学習せよ.

{\overleftarrow{h} }_{T+1} =0,
\overleftarrow{h_t } =\overleftarrow{{{RNN}}} \left({{emb}}\left(x_t \right),{\overleftarrow{h} }_{t+1} \right),
y={{softmax}}\left(W^{(yh)} \left\lbrack {\overrightarrow{h} }_T ;{\overleftarrow{h} }_1 \right\rbrack +b^{(y)} \right)

ただし,$\overrightarrow{h_t } \in {\mathbb{R}}^{d_h } ,\overleftarrow{h_t } \in {\mathbb{R}}^{d_h }$はそれぞれ,順方向および逆方向のRNNで求めた時刻ttの隠れ状態ベクトル,$\overleftarrow{{{RNN}}} \left(x,h\right)$は入力$x$と次時刻の隠れ状態$h$から前状態を計算するRNNユニット,$W^{(yh)} \in {\mathbb{R}}^{L\times 2d_h }$は隠れ状態ベクトルからカテゴリを予測するための行列,$b^{(y)} \in {\mathbb{R}}^L$はバイアス項である.また,$\left\lbrack a;b\right\rbrack$はベクトル$a$と$b$の連結を表す。

さらに,双方向RNNを多層化して実験せよ.

せっかくなので,問題84で使った単語ベクトルはそのまま使うことにします.そこで,双方向LSTM層を導入します.

Code
inputSize = 1;
numWords = enc2.NumWords;
nDimEmb  = 300;
nHidden  = 50;

numClasses = 4;

layers = [ ...
  sequenceInputLayer(inputSize) ...
  wordEmbeddingLayer(nDimEmb, numWords,'Weights', embInit') ...
  bilstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(2*nHidden,1)) ...
  fullyConnectedLayer(numClasses) ...
  softmaxLayer ...
  classificationLayer];

学習パラメータは単方高の場合と同じですが,最大エポック数は20で十分でしょう.

Code
options = trainingOptions('sgdm', ...
  'MaxEpochs',20, ...
  'MiniBatchSize',256, ...
  'InitialLearnRate', 0.05, ...
  'LearnRateSchedule',"piecewise", ...
  'LearnRateDropFactor',0.8, ...
  'LearnRateDropPeriod',10, ...
  'Shuffle',"every-epoch", ...
  'Plots','training-progress', ...
  'ValidationData',{XValid, YValid}, ...
  'ValidationFrequency',41, ...
  "L2Regularization",0.0075, ...
  "Verbose",false,"ExecutionEnvironment","gpu");

net = trainNetwork(XTrain,YTrain,layers,options);

figure_4.png

むむむ・・・ 一方通行の場合とあまり変わりませんなぁ・・・

では,こちらのモデルについても,評価データを使って予測を行ってみましょう.

Code
Yhat = predict(net,XTest,'ReturnCategorical',true);

confusionchart(YTest,Yhat,'ColumnSummary',"column-normalized","RowSummary","row-normalized");

figure_5.png

単方向の例よりはちょっとだけ改善されたようです.

86. 畳み込みニューラルネットワーク (CNN)

ID番号で表現された単語列$x=\left(x_1 ,x_2 ,\dots ,x_T \right)$がある.ただし,$T$は単語列の長さ,$x_t \in {\mathbb{R}}^V$は単語のID番号のone-hot表記である($V$は単語の総数である).畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用い,単語列$x$からカテゴリ$y$を予測するモデルを実装せよ.

ただし,畳み込みニューラルネットワークの構成は以下の通りとする.

  • 単語埋め込みの次元数: $d_w$
  • 畳み込みのフィルターのサイズ: 3 トークン
  • 畳み込みのストライド: 1 トークン
  • 畳み込みのパディング: あり
  • 畳み込み演算後の各時刻のベクトルの次元数: $d_h$
  • 畳み込み演算後に最大値プーリング(max pooling)を適用し,入力文を$d_h$次元の隠れベクトルで表現

すなわち,時刻$t$の特徴ベクトル$p_t \in {\mathbb{R}}^{d_h }$は次式で表される.

p_t =g\left(W^{(px)} \left\lbrack {{emb}}\left(x_{t-1} \right);{{emb}}\left(x_t \right);{{emb}}\left(x_{t+1} \right)\right\rbrack +b^{(p)} \right)

ただし,$W^{(px)} \in {\mathbb{R}}^{d_h \times 3d_w } ,b^{(p)} \in {\mathbb{R}}^{d_h }$はCNNのパラメータ,$g$は活性化関数(例えば${{tanh}}$やReLUなど),$\left\lbrack a;b;c\right\rbrack$はベクトル$a,b,c$の連結である.なお,行列$W^{(px)}$の列数が$3d_w$になるのは,3個のトークンの単語埋め込みを連結したものに対して,線形変換を行うためである.

最大値プーリングでは,特徴ベクトルの次元毎に全時刻における最大値を取り,入力文書の特徴ベクトル$c\in {\mathbb{R}}^{d_h }$を求める.$c\left\lbrack i\right\rbrack$でベクトル$c$の$i$番目の次元の値を表すことにすると,最大値プーリングは次式で表される.

c\left\lbrack i\right\rbrack =\max_{1\le t\le T} p_t \left\lbrack i\right\rbrack

最後に,入力文書の特徴ベクトル$c$に行列$W^{(yc)} \in {\mathbb{R}}^{L\times d_h }$とバイアス項$b^{(y)} \in {\mathbb{R}}^L$による線形変換とソフトマックス関数を適用し,カテゴリ$y$を予測する.

y={{softmax}}\left(W^{(yc)} c+b^{(y)} \right)

なお,この問題ではモデルの学習を行わず,ランダムに初期化された重み行列で$y$を計算するだけでよい.

MATLABでCNNを組むとなると「画像のフリ」をする必要が出てくるわけでして,入力を単語埋め込みから始めていいですかね・・・

シーケンス長を13トークンに固定しているので,一つのデータが300×13の画像だと思わせておけば良いのですね.そのようなデータを作るために,に次のような関数を用意しました.

Code(Display)
function Xemb = enc2emb(enc,emb,X)

numSamples = size(X,1);    % サンプル数
numSeq     = size(X{1},2); % X のシーケンス長

Xemb = cell([numSamples 1]); 
for kk = 1:numSamples
  % XをIDから単語に変換しますが,この際にIDが0になっているものは無視します.
  tmpWords = ind2word(enc, X{kk}(X{kk}>0));
  
  % 単語の列を単語ベクトルに変換します.
  tmpVec = word2vec(emb, tmpWords)';
  
  % サンプルによって1シーケンスに含まれる単語の数は異なっているので,
  % 初めにサンプル数×シーケンス長のゼロ行列を用意しておいて,後から内容を埋めます
  Xemb{kk} = zeros([emb.Dimension numSeq]);
  Xemb{kk}(:,1:size(tmpVec,2)) = tmpVec;

end

end

これをデータに適用して変換しておきます.

Code
XTrainE = enc2emb(enc2,emb, XTrain);
XValidE = enc2emb(enc2,emb, XValid);
XTestE  = enc2emb(enc2,emb, XTest);

ネットワークの定義を行います.入力層→畳み込み層→ReLu層→最大プーリング層→全結合層→ソフトマックス層→分類層です.単語ベクトルのような入力情報に対しての入力層での規格化ってどうなんでしょう.一応ここでは"none" にしておきます.(別途試したんですが,規格化した方が微妙に性能が良かったりするから不思議・・・)

Code
numWords = enc2.NumWords;
nDimEmb  = 300;
nSeqLen  = 13;
nHidden  = 50;

numClasses = 4;

inputSize = [nDimEmb nSeqLen 1];
nConvW = 3;
nConvH = ceil(nDimEmb/nHidden);
layers = [ ...
  imageInputLayer(inputSize,'Name','input','Normalization','none') ...
  convolution2dLayer([nConvH, nConvW],1,'Stride',[nConvH 1],'Padding','same','Name','conv') ...
  tanhLayer('Name','tanh') ...
  maxPooling2dLayer([1 nSeqLen],'stride',[1 nSeqLen],'Name','pool') ...
  fullyConnectedLayer(numClasses,'Name','fc') ...
  softmaxLayer('Name','softmax') ...
  classificationLayer('Name','classification')];

87. 確率的勾配降下法によるCNNの学習

確率的勾配降下法(SGD: Stochastic Gradient Descent)を用いて,問題86で構築したモデルを学習せよ.訓練データ上の損失と正解率,評価データ上の損失と正解率を表示しながらモデルを学習し,適当な基準(例えば10エポックなど)で終了させよ.

パラメータを適当に決めて学習してみます.

Code
options = trainingOptions('sgdm', ...
  'MaxEpochs',20, ...
  'MiniBatchSize',256, ...
  'InitialLearnRate', 0.05, ...
  'LearnRateSchedule',"piecewise", ...
  'LearnRateDropFactor',0.8, ...
  'LearnRateDropPeriod',10, ...
  'Shuffle',"every-epoch", ...
  'Plots','training-progress', ...
  'ValidationData',{XValidE, YValid}, ...
  'ValidationFrequency',41, ...
  "L2Regularization",0.0001, ...
  "Verbose",false,"ExecutionEnvironment","gpu");

net = trainNetwork(XTrainE,YTrain,layers,options);

figure_6.png

条件をあれこれ振っても検証精度80%が精一杯.LSTMで単語埋め込みの初期値を指定しない場合と同程度の精度であることを考えると「単語埋め込み層を省いている分だけ最適化ができていない」という解釈になるのでしょうか.

88. パラメータチューニング

問題85や問題87のコードを改変し,ニューラルネットワークの形状やハイパーパラメータを調整しながら,高性能なカテゴリ分類器を構築せよ.

問題85で作った双方向LSTMでパラメータチューニングを行ってみます.(とはいえ,既に90%程度の精度が出ているので,さらなる向上が望めるかどうか・・・).では,せっかくMATLABなんで,「実験マネージャー」を使ってやってみましょう.

実験マネージャを起動すると(コマンドから experimentManager 入力),「プロジェクトを作ります」と言われるので,適当なフォルダ上でプロジェクトを作成します.そして,そのフォルダ内にデータ,外部関数などの必要なファイルを全てコピーします.

すると,下のような実験マネージャのウィンドウがでてきます.Experiment1というタブの「ハイパーパラメーターテーブル」に,振りたいパラメータの変数名と,振りたい値を記入します.この変数名が,次に出てくる「セットアップ関数」の引数(構造体)のフィールド名になります.

image_0.png

パラメータを振って学習をすすめるのですが,そのために各種変数などを「仕込む」セットアップ関数を用意しなければなりません.今回使ったセットアップ関数(Experiment1_setup1.m)はこんな感じ.

セットアップ関数(`Experiment1_setup1.m`)
Code(Display)
function  [XTrain,YTrain,layers,options] = Experiment1_setup1(prms)

filePath = "C:\Users\toru_\Documents\3. 科学技術\MATLAB\言語処理100本ノック";
dataFile = fullfile(filePath,"data4LSTM.mat");

load(dataFile,"XTrain","YTrain","XValid","YValid","embInit","enc2");

inputSize = 1;
numWords = enc2.NumWords;
nDimEmb  = 300;
nHidden  = prms.nHidden;

numClasses = 4;

layers = [ ...
  sequenceInputLayer(inputSize) ...
  wordEmbeddingLayer(nDimEmb, numWords,'Weights', embInit') ...
  lstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(nHidden,1)) ...
  fullyConnectedLayer(numClasses) ...
  softmaxLayer ...
  classificationLayer];

options = trainingOptions('sgdm', ...
  'MaxEpochs',30, ...
  'MiniBatchSize',256, ...
  'InitialLearnRate', prms.initialLearnRate, ...
  'LearnRateSchedule',"piecewise", ...
  'LearnRateDropFactor',0.8, ...
  'LearnRateDropPeriod',prms.LearnRateDropPeriod, ...
  'Shuffle',"every-epoch", ...
  'Plots','training-progress', ...
  'ValidationData',{XValid, YValid}, ...
  'ValidationFrequency',41, ...
  "L2Regularization",prms.L2R, ...
  "Verbose",false,"ExecutionEnvironment","gpu");

end

function [wordID,enc] = preprocess(dataTbl,enc)

str = dataTbl.Title;
docs = tokenizedDocument(str);       
docs = addPartOfSpeechDetails(docs);
docs = removeStopWords(docs);
% docs = normalizeWords(docs);
docs = erasePunctuation(docs);
docs = removeShortWords(docs,2);
docs = removeLongWords(docs,15);

bows = bagOfWords(docs);

nWordsToEncode = nnz(sum(bows.Counts)>1);

if nargin < 2
  enc = wordEncoding(docs,'Order','Frequency','MaxNumWords',nWordsToEncode);
end
wordID = doc2sequence(enc,docs,"Length",13);

end

function Xemb = enc2emb(enc,emb,X)

numSamples = size(X,1);    % サンプル数
numSeq     = size(X{1},2); % X のシーケンス長

Xemb = zeros([emb.Dimension numSeq 1 numSamples]); 
for kk = 1:numSamples
  % XをIDから単語に変換しますが,この際にIDが0になっているものは無視します.
  tmpWords = ind2word(enc, X{kk}(X{kk}>0));
  
  % 単語の列を単語ベクトルに変換します.
  tmpVec = word2vec(emb, tmpWords)';
  
  % サンプルによって1シーケンスに含まれる単語の数は異なっているので,
  % 初めにサンプル数×シーケンス長のゼロ行列を用意しておいて,後から内容を埋めます
  Xemb(:,1:size(tmpVec,2),:,kk) = tmpVec;

end

end

一つのセットアップ関数の中で,データの読み込みも含めて学習が全てが完結するようにします.ですので,外部関数として作ったサポート関数も,ファイル内にあらためてコピペしています.(パスの設定やら何やらちゃんとやればこんなことしなくても動くのかもしれません.今回はとりあえず動かすということで,そのあたりの探求はまた今度.)

セットアップ関数の引数が構造体になっていて,値を振りたいパラメータをその構造体のフィールドに設定します.

準備ができたら「実行」ボタンを押すだけ.可能なパラメータの組を,全てに渡って自動的に走らせてくれます.途中経過と結果は,下の図のように表示されます.学習の様子や混同行列を表示させることもできるので,どのパラメータの組が良いかの検討が一気にできます.

image_1.png

結果的には,どのパラメータをとっても,検証精度90%程度でほとんど変わりませんでした.トホホ・・・

  1. Livescript から markdown への変換は livescript2markdown​: MATLAB's live scripts to markdown を使っています.

3
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?