はじめに
もしかして **「え?MATLAB で言語処理やるの??」**と思いました・・?(8回目)
言語処理 100 本ノック 2020 で MATLAB の練習をするシリーズ。今回は第9章: RNN,CNN の問題80から問題88までをやってみました.(問題89は少々お待ちを・・・)
一部都合よく問題文を読み替えていますがご容赦ください.気になるところあれば是非コメントください.今回は特に,RNN/CNNの実装ではなくMATLABをどう使ったらできるか(できないか)という観点でのトライアルになります.
実行環境
- MATLAB R2020a (Windows 10)
- Text Analytics Toolbox
- Deep Learning Toolbox
**Livescript 版(MATLAB)は GitHub: NLP100-MATLAB1 に置いてあります。**そしてノックを一緒にやってくれる MATLAB 芸人は引き続き募集中です!詳細は GitHub の方で.
他章へのリンク
- 第 1 章: 準備運動
- 第 2 章: UNIX コマンド
- 第 3 章: 正規表現
- 第 4 章: 形態素解析
- 第 6 章: 機械学習 part 1
- 第 6 章: 機械学習 part 2
- 第 7 章: 単語ベクトル
- 第 8 章: ニューラルネットワーク
- 第 9章 RNN, CNN part 1(この記事)
80. ID番号への変換
問題51で構築した学習データ中の単語にユニークなID番号を付与したい.学習データ中で最も頻出する単語に
1
,2番目に頻出する単語に2
,……といった方法で,学習データ中で2回以上出現する単語にID番号を付与せよ.そして,与えられた単語列に対して,ID番号の列を返す関数を実装せよ.ただし,出現頻度が2回未満の単語のID番号はすべて0
とせよ.
問題51で構築した学習データとありますが,問題51のお題は特徴量設計でしたので,人によっては単語情報は破棄してしまっているかもしれません.そこで,ここでは問題50で作成したデータファイルから出発します.(データファイル train.txt
がMATLAB path 上にあるとします.)
まず,学習データを読み込みます.
dataTbl = readtable('train.txt');
前処理として,形態素解析,StopWords(主に冠詞・前置詞などの機能語)の削除,原形への変換,句読点との削除,極端に短い語・長い語の削除を行います.(原形への変換は,あとでword2vecを使う時にうまくないのでここでは行いません.)
str = dataTbl.Title;
docs = tokenizedDocument(str);
docs = addPartOfSpeechDetails(docs);
docs = removeStopWords(docs);
% docs = normalizeWords(docs);
docs = erasePunctuation(docs);
docs = removeShortWords(docs,2);
docs = removeLongWords(docs,15);
単語を頻度順にソートして,IDを付与する(エンコードする)には,wordEncoding を使うと便利です.ただし,出現頻度でエンコード対象単語を絞ることはできませんので,bagOfWords モデルを生成して.上位何語をエンコードするかを決めておきます.
bows = bagOfWords(docs);
nWordsToEncode = nnz(sum(bows.Counts)>1);
enc = wordEncoding(docs,'Order','Frequency','MaxNumWords',nWordsToEncode);
str = ["America","China","world"];
wordID = word2ind(enc,str);
disp(wordID);
37 5 391
単語列からID列への変換関数は次のようになりました.
function wordID = word2ID(enc,words)
% 入力引数のチェック
arguments
enc wordEncoding
words (1,:) string
end
wordID = zeros(size(words)); % 返値を0で初期化しておきます
% 入力単語が入力されたエンコードされているかどうかを確認します.
lidxWordInEnc = isVocabularyWord(enc,words);
% Keyに登録されている単語に対して,エンコードされたIDを取得します.
tmpStr = words(lidxWordInEnc); %
tmpID = word2ind(enc,tmpStr);
% 出力を抽出したIDで置き換えます.(エンコードされていない単語に対しては0のままになります.)
wordID(lidxWordInEnc)=tmpID;
end
下の例で,"hogehoge"
はエンコードされていない単語,"panda"
は出現回数が1回だけの単語の例です.
str = ["America","China","hogehoge","world","panda"];
wordID = word2ID(enc,str);
disp(wordID);
37 5 0 391 0
で・も・ね・・・ 学習データに対してエンコードしたIDを求めたいなら,次の1行で一発なのですね.
wordID = doc2sequence(enc,docs);
disp(wordID{1});
結果はちょっと長いのでたたんでおきますね
1 列から 12 列
0 0 0 0 0 0 0 0 0 0 0 0
13 列から 24 列
0 0 0 0 0 0 0 0 0 0 0 0
25 列から 36 列
0 0 0 0 0 0 0 0 0 0 0 0
37 列から 48 列
0 0 0 0 0 0 0 0 0 0 0 0
49 列から 60 列
0 0 0 0 0 0 0 0 0 0 0 0
61 列から 68 列
0 0 0 105 1399 1146 3793 2262
全ての文書に対するシーケンス長を揃えるために,ゼロパディングを行っているのと,エンコードされてない語は無視されることには気をつける必要があります.ゼロパディングが多すぎるのも効率が悪いので,一つの文書の単語数を制限することを考えます.各文書の単語数を調べてみると,一番長いのが111単語の文で,第二位が13語の文になっています.
docs(doclength(docs)>12)
ans =
2x1 tokenizedDocument:
111 tokens: Best Reactions Supposed Video Solange Knowles Jay HipHopDX 1399983366398 210714 Report JayZ attacked Beyonce sister icmp WSB Atlanta www.wsbtv.com 1399983366584 210715 Drunk Love Cent Reacts Beyonce Defending Jay 1399983366926 210716 Brawl Find Happened AfterParty Sparked Radar Online 1399983367118 210717 Sure Solange Attack Memes Funny Completely Crushable 1399983367406 210718 Cent Dame Dash Throw Jabs Jay Solange Fight VIDEO 1399983367691 210719 Fox unveils schedule cutting back Idol Hudson HubTimes 1399985294553 210720 Fox lineup American Idol shrinking Batman prequel Gotham air Mondays Newsday 1399985294870 210721 American Idol Set Cut Down Single Two Hour Show Week 1399985295162 210722 Fox Upfront Scorecard Big Risks Dig Big Hole Variety variety.com 1399985295432 210723 Riddler Joker Confirmed Fox Gotham
13 tokens: Tesla boss Elon Musk gives away firm electric car secrets bid boost market
111語の文は非常に特殊なケースなので,シーケンスの長さを13に設定するのには無理はないと考えられます.
wordID = doc2sequence(enc,docs,"Length",13);
ここまでのプロセスを,サポート関数 preprocess
としてまとめました.
`preprocess.m`
function [wordID,enc] = preprocess(dataTbl,enc)
str = dataTbl.Title;
docs = tokenizedDocument(str);
docs = addPartOfSpeechDetails(docs);
docs = removeStopWords(docs);
docs = normalizeWords(docs);
docs = erasePunctuation(docs);
docs = removeShortWords(docs,2);
docs = removeLongWords(docs,15);
bows = bagOfWords(docs);
nWordsToEncode = nnz(sum(bows.Counts)>1);
if nargin < 2
enc = wordEncoding(docs,'Order','Frequency','MaxNumWords',nWordsToEncode);
end
wordID = doc2sequence(enc,docs,"Length",13);
end
この関数を使って,検証データ,評価データについても同じようにIDのシーケンスを求めておきます.
trainTbl = readtable('train.txt');
[XTrain, enc] = preprocess(trainTbl);
YTrain = categorical(trainTbl.Category);
testTbl = readtable('test.txt');
XTest = preprocess(testTbl,enc);
YTest = categorical(testTbl.Category);
validTbl = readtable('valid.txt');
XValid = preprocess(validTbl,enc);
YValid = categorical(validTbl.Category);
81. RNNによる予測
ID番号で表現された単語列$x=(x_1 ,x_2 ,\dots ,x_T )$がある.ただし,$T$は単語列の長さ,$x_t \in {\mathbb{R}}^V$は単語のID番号のone-hot表記である($V$は単語の総数である).再帰型ニューラルネットワーク(RNN: Recurrent Neural Network)を用い,単語列$x$からカテゴリ$y$を予測するモデルとして,次式を実装せよ.
\vec{h_0 } =0,
\vec{h_t } =\overrightarrow{{{RNN}}} \left({{emb\left(x_t \right),\vec{h_{t-1} } }}\right),
y={{softmax}}\left(W^{(yh)} \vec{h_T } +b^{(y)} \right)
ただし, ${{emb}}\left(x\right)\in {\mathbb{R}}^{d_w }$は単語埋め込み(単語のone-hot表記から単語ベクトルに変換する関数),$\vec{h_t } \in {\mathbb{R}}^{d_h }$は時刻$t$の隠れ状態ベクトル,$\overrightarrow{{{RNN}}} \left(x,h\right)$は入力$x$と前時刻の隠れ状態$h$から次状態を計算するRNNユニット,$W^{(yh)} \in {\mathbb{R}}^{L\times d_h }$は隠れ状態ベクトルからカテゴリを予測するための行列,$b^{(y)} \in {\mathbb{R}}^L$はバイアス項である($d_w ,d_h ,L$はそれぞれ,単語埋め込みの次元数,隠れ状態ベクトルの次元数,ラベル数である).RNNユニット$\overrightarrow{{{RNN}}} \left(x,h\right)$には様々な構成が考えられるが,典型例として次式が挙げられる.
\overrightarrow{{{RNN}}} \left(x,h\right)=g\left(W^{(hx)} x+W^{(hh)} h+b^{(h)} \right)
ただし,$W^{(hx)} \in {\mathbb{R}}^{d_h \times d_w }$,$W^{(hh)} \in {\mathbb{R}}^{d_h \times d_h }$,$b^{(h)} \in {\mathbb{R}}^{d_h }$はRNNユニットのパラメータ,$g$は活性化関数(例えば${{tanh}}$やReLUなど)である.
なお,この問題ではパラメータの学習を行わず,ランダムに初期化されたパラメータで$y$を計算するだけでよい.次元数などのハイパーパラメータは,$d_w =300$,$d_h =50$など,適当な値に設定せよ(以降の問題でも同様である).
スミマセン.LSTM使っていいっすか?
入力層としてsequenceInputLayer
を設定します.入力するデータは問題80で求めた文書毎の単語IDのシーケンス wordID
です.この場合には,入力サイズは1とします.続いて,wordEmbeddingLayer ですが,この層は単語のシーケンスから単語ベクトル(単語埋め込み)を学習します.LSTM層では隠れ層の初期値を問題の指示の通りにゼロにしておきます.その後は,通常の全結合層,ソフトマックス層,分類層と続きます.
inputSize = 1;
numWords = enc.NumWords;
nDimEmb = 300;
nHidden = 50;
numClasses = 4;
layers = [ ...
sequenceInputLayer(inputSize) ...
wordEmbeddingLayer(nDimEmb, numWords,'WeightsInitializer',"glorot") ...
lstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(nHidden,1)) ...
fullyConnectedLayer(numClasses) ...
softmaxLayer ...
classificationLayer];
82. 確率的勾配降下法による学習
確率的勾配降下法(SGD: Stochastic Gradient Descent)を用いて,問題81で構築したモデルを学習せよ.訓練データ上の損失と正解率,評価データ上の損失と正解率を表示しながらモデルを学習し,適当な基準(例えば10エポックなど)で終了させよ.
それでは,学習させてみましょう.学習オプションは,ミニバッチサイズをデータ数と同じにとる(後でミニバッチ化のお題があるので)他は,適当に決めてみます.
options = trainingOptions('sgdm', ...
'MaxEpochs',20, ...
'MiniBatchSize',10672, ...
'InitialLearnRate', 0.03, ...
'Plots','training-progress', ...
'ValidationData',{XValid, YValid}, ...
'ValidationFrequency',1, ...
"L2Regularization",0.01, ...
"Verbose",false,"ExecutionEnvironment","cpu");
net = trainNetwork(XTrain,YTrain,layers,options);
うーん.検証精度40%程度ですね.何が悪いんだろう・・・
83. ミニバッチ化・GPU上での学習
問題82のコードを改変し,$B$事例ごとに損失・勾配を計算して学習を行えるようにせよ($B$の値は適当に選べ).また,GPU上で学習を実行せよ.
パラメータを適宜変更して,もう一度流してみます.
options = trainingOptions('sgdm', ...
'MaxEpochs',40, ...
'MiniBatchSize',256, ...
'InitialLearnRate', 0.05, ...
'LearnRateSchedule',"piecewise", ...
'LearnRateDropFactor',0.8, ...
'LearnRateDropPeriod',10, ...
'Shuffle',"every-epoch", ...
'Plots','training-progress', ...
'ValidationData',{XValid, YValid}, ...
'ValidationFrequency',41, ...
"L2Regularization",0.0075, ...
"Verbose",false,"ExecutionEnvironment","gpu");
net = trainNetwork(XTrain,YTrain,layers,options);
だいぶ良くはなりましたが,やや過学習気味ですかね.いろいろとパラメータをいじってみても,検証精度80%がいいところでした.前半かなり暴れるのですが,学習率を下げると精度40%あたりのラインにトラップされてしまうみたいで,なかなかややこしいです.
84. 単語ベクトルの導入
事前学習済みの単語ベクトル(例えば,Google Newsデータセット(約1,000億単語)での学習済み単語ベクトル)で単語埋め込み${{emb}}\left(x\right)$を初期化し,学習せよ.
単語ベクトルを作成するためのWord2Vecモデルを読み込みます(学習済みモデルのファイルは同じフォルダにあるものと仮定しています).読み込みにはバイナリ形式のword2vecファイルを読み込むための関数readW2Vbin.m
を自前で作ったので、それを使っています.興味のある方はMathWorks の FileExchange に上げてありますので,そちらをどうぞ.
emb = readW2Vbin('GoogleNews-vectors-negative300.bin');
入力データに含まれる単語が単語ベクトルに含まれているかどうかを確認します.
lidxIsVocab = isVocabularyWord(emb,enc.Vocabulary);
単語ベクトルに含まれている単語のみでのエンコーディングをやり直します.
enc2 = wordEncoding(enc.Vocabulary(lidxIsVocab));
埋込み層のベクトル表現はつぎのようになります.
embInit = word2vec(emb,enc2.Vocabulary);
データも改めてエンコードし直します.
trainTbl = readtable('train.txt');
XTrain = preprocess(trainTbl,enc2);
YTrain = categorical(trainTbl.Category);
testTbl = readtable('test.txt');
XTest = preprocess(testTbl,enc2);
YTest = categorical(testTbl.Category);
validTbl = readtable('valid.txt');
XValid = preprocess(validTbl,enc2);
YValid = categorical(validTbl.Category);
後でまた使う時のために,データセットを保存しておきましょう.
save('data4LSTM.mat','XTrain','YTrain','XValid','YValid','XTest','YTest',"enc2","embInit");
このベクトル表現を wordEmbeddingLayer
のパラメータ'Weights'
の値にセットすることで,埋め込み層の初期値として使用することができます.
inputSize = 1;
numWords = enc2.NumWords;
nDimEmb = 300;
nHidden = 50;
numClasses = 4;
layers = [ ...
sequenceInputLayer(inputSize) ...
wordEmbeddingLayer(nDimEmb, numWords,'Weights', embInit') ...
lstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(nHidden,1)) ...
fullyConnectedLayer(numClasses) ...
softmaxLayer ...
classificationLayer];
学習オプションは前と同じにして・・・
options = trainingOptions('sgdm', ...
'MaxEpochs',40, ...
'MiniBatchSize',256, ...
'InitialLearnRate', 0.05, ...
'LearnRateSchedule',"piecewise", ...
'LearnRateDropFactor',0.8, ...
'LearnRateDropPeriod',10, ...
'Shuffle',"every-epoch", ...
'Plots','training-progress', ...
'ValidationData',{XValid, YValid}, ...
'ValidationFrequency',41, ...
"L2Regularization",0.0075, ...
"Verbose",false,"ExecutionEnvironment","gpu");
net = trainNetwork(XTrain,YTrain,layers,options);
埋め込み層の初期値が適切なので,少ないイタレーションで検証精度80%を超えています.検証精度はおおむね10~20エポックぐらいで頭打ちで,あとは過学習っぽいですね.
では,こちらのモデルについて,評価データを使って予測を行ってみましょう.
Yhat = predict(net,XTest,'ReturnCategorical',true);
confusionchart(YTest,Yhat,'ColumnSummary',"column-normalized","RowSummary","row-normalized");
サンプル数の少ないクラスの分類精度が相対的に悪くなっているのがわかります.
85. 双方向RNN・多層化
順方向と逆方向のRNNの両方を用いて入力テキストをエンコードし,モデルを学習せよ.
{\overleftarrow{h} }_{T+1} =0,
\overleftarrow{h_t } =\overleftarrow{{{RNN}}} \left({{emb}}\left(x_t \right),{\overleftarrow{h} }_{t+1} \right),
y={{softmax}}\left(W^{(yh)} \left\lbrack {\overrightarrow{h} }_T ;{\overleftarrow{h} }_1 \right\rbrack +b^{(y)} \right)
ただし,$\overrightarrow{h_t } \in {\mathbb{R}}^{d_h } ,\overleftarrow{h_t } \in {\mathbb{R}}^{d_h }$はそれぞれ,順方向および逆方向のRNNで求めた時刻ttの隠れ状態ベクトル,$\overleftarrow{{{RNN}}} \left(x,h\right)$は入力$x$と次時刻の隠れ状態$h$から前状態を計算するRNNユニット,$W^{(yh)} \in {\mathbb{R}}^{L\times 2d_h }$は隠れ状態ベクトルからカテゴリを予測するための行列,$b^{(y)} \in {\mathbb{R}}^L$はバイアス項である.また,$\left\lbrack a;b\right\rbrack$はベクトル$a$と$b$の連結を表す。
さらに,双方向RNNを多層化して実験せよ.
せっかくなので,問題84で使った単語ベクトルはそのまま使うことにします.そこで,双方向LSTM層を導入します.
inputSize = 1;
numWords = enc2.NumWords;
nDimEmb = 300;
nHidden = 50;
numClasses = 4;
layers = [ ...
sequenceInputLayer(inputSize) ...
wordEmbeddingLayer(nDimEmb, numWords,'Weights', embInit') ...
bilstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(2*nHidden,1)) ...
fullyConnectedLayer(numClasses) ...
softmaxLayer ...
classificationLayer];
学習パラメータは単方高の場合と同じですが,最大エポック数は20で十分でしょう.
options = trainingOptions('sgdm', ...
'MaxEpochs',20, ...
'MiniBatchSize',256, ...
'InitialLearnRate', 0.05, ...
'LearnRateSchedule',"piecewise", ...
'LearnRateDropFactor',0.8, ...
'LearnRateDropPeriod',10, ...
'Shuffle',"every-epoch", ...
'Plots','training-progress', ...
'ValidationData',{XValid, YValid}, ...
'ValidationFrequency',41, ...
"L2Regularization",0.0075, ...
"Verbose",false,"ExecutionEnvironment","gpu");
net = trainNetwork(XTrain,YTrain,layers,options);
むむむ・・・ 一方通行の場合とあまり変わりませんなぁ・・・
では,こちらのモデルについても,評価データを使って予測を行ってみましょう.
Yhat = predict(net,XTest,'ReturnCategorical',true);
confusionchart(YTest,Yhat,'ColumnSummary',"column-normalized","RowSummary","row-normalized");
単方向の例よりはちょっとだけ改善されたようです.
86. 畳み込みニューラルネットワーク (CNN)
ID番号で表現された単語列$x=\left(x_1 ,x_2 ,\dots ,x_T \right)$がある.ただし,$T$は単語列の長さ,$x_t \in {\mathbb{R}}^V$は単語のID番号のone-hot表記である($V$は単語の総数である).畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用い,単語列$x$からカテゴリ$y$を予測するモデルを実装せよ.
ただし,畳み込みニューラルネットワークの構成は以下の通りとする.
- 単語埋め込みの次元数: $d_w$
- 畳み込みのフィルターのサイズ: 3 トークン
- 畳み込みのストライド: 1 トークン
- 畳み込みのパディング: あり
- 畳み込み演算後の各時刻のベクトルの次元数: $d_h$
- 畳み込み演算後に最大値プーリング(max pooling)を適用し,入力文を$d_h$次元の隠れベクトルで表現
すなわち,時刻$t$の特徴ベクトル$p_t \in {\mathbb{R}}^{d_h }$は次式で表される.
p_t =g\left(W^{(px)} \left\lbrack {{emb}}\left(x_{t-1} \right);{{emb}}\left(x_t \right);{{emb}}\left(x_{t+1} \right)\right\rbrack +b^{(p)} \right)
ただし,$W^{(px)} \in {\mathbb{R}}^{d_h \times 3d_w } ,b^{(p)} \in {\mathbb{R}}^{d_h }$はCNNのパラメータ,$g$は活性化関数(例えば${{tanh}}$やReLUなど),$\left\lbrack a;b;c\right\rbrack$はベクトル$a,b,c$の連結である.なお,行列$W^{(px)}$の列数が$3d_w$になるのは,3個のトークンの単語埋め込みを連結したものに対して,線形変換を行うためである.
最大値プーリングでは,特徴ベクトルの次元毎に全時刻における最大値を取り,入力文書の特徴ベクトル$c\in {\mathbb{R}}^{d_h }$を求める.$c\left\lbrack i\right\rbrack$でベクトル$c$の$i$番目の次元の値を表すことにすると,最大値プーリングは次式で表される.
c\left\lbrack i\right\rbrack =\max_{1\le t\le T} p_t \left\lbrack i\right\rbrack
最後に,入力文書の特徴ベクトル$c$に行列$W^{(yc)} \in {\mathbb{R}}^{L\times d_h }$とバイアス項$b^{(y)} \in {\mathbb{R}}^L$による線形変換とソフトマックス関数を適用し,カテゴリ$y$を予測する.
y={{softmax}}\left(W^{(yc)} c+b^{(y)} \right)
なお,この問題ではモデルの学習を行わず,ランダムに初期化された重み行列で$y$を計算するだけでよい.
MATLABでCNNを組むとなると「画像のフリ」をする必要が出てくるわけでして,入力を単語埋め込みから始めていいですかね・・・
シーケンス長を13トークンに固定しているので,一つのデータが300×13の画像だと思わせておけば良いのですね.そのようなデータを作るために,に次のような関数を用意しました.
function Xemb = enc2emb(enc,emb,X)
numSamples = size(X,1); % サンプル数
numSeq = size(X{1},2); % X のシーケンス長
Xemb = cell([numSamples 1]);
for kk = 1:numSamples
% XをIDから単語に変換しますが,この際にIDが0になっているものは無視します.
tmpWords = ind2word(enc, X{kk}(X{kk}>0));
% 単語の列を単語ベクトルに変換します.
tmpVec = word2vec(emb, tmpWords)';
% サンプルによって1シーケンスに含まれる単語の数は異なっているので,
% 初めにサンプル数×シーケンス長のゼロ行列を用意しておいて,後から内容を埋めます
Xemb{kk} = zeros([emb.Dimension numSeq]);
Xemb{kk}(:,1:size(tmpVec,2)) = tmpVec;
end
end
これをデータに適用して変換しておきます.
XTrainE = enc2emb(enc2,emb, XTrain);
XValidE = enc2emb(enc2,emb, XValid);
XTestE = enc2emb(enc2,emb, XTest);
ネットワークの定義を行います.入力層→畳み込み層→ReLu層→最大プーリング層→全結合層→ソフトマックス層→分類層です.単語ベクトルのような入力情報に対しての入力層での規格化ってどうなんでしょう.一応ここでは"none"
にしておきます.(別途試したんですが,規格化した方が微妙に性能が良かったりするから不思議・・・)
numWords = enc2.NumWords;
nDimEmb = 300;
nSeqLen = 13;
nHidden = 50;
numClasses = 4;
inputSize = [nDimEmb nSeqLen 1];
nConvW = 3;
nConvH = ceil(nDimEmb/nHidden);
layers = [ ...
imageInputLayer(inputSize,'Name','input','Normalization','none') ...
convolution2dLayer([nConvH, nConvW],1,'Stride',[nConvH 1],'Padding','same','Name','conv') ...
tanhLayer('Name','tanh') ...
maxPooling2dLayer([1 nSeqLen],'stride',[1 nSeqLen],'Name','pool') ...
fullyConnectedLayer(numClasses,'Name','fc') ...
softmaxLayer('Name','softmax') ...
classificationLayer('Name','classification')];
87. 確率的勾配降下法によるCNNの学習
確率的勾配降下法(SGD: Stochastic Gradient Descent)を用いて,問題86で構築したモデルを学習せよ.訓練データ上の損失と正解率,評価データ上の損失と正解率を表示しながらモデルを学習し,適当な基準(例えば10エポックなど)で終了させよ.
パラメータを適当に決めて学習してみます.
options = trainingOptions('sgdm', ...
'MaxEpochs',20, ...
'MiniBatchSize',256, ...
'InitialLearnRate', 0.05, ...
'LearnRateSchedule',"piecewise", ...
'LearnRateDropFactor',0.8, ...
'LearnRateDropPeriod',10, ...
'Shuffle',"every-epoch", ...
'Plots','training-progress', ...
'ValidationData',{XValidE, YValid}, ...
'ValidationFrequency',41, ...
"L2Regularization",0.0001, ...
"Verbose",false,"ExecutionEnvironment","gpu");
net = trainNetwork(XTrainE,YTrain,layers,options);
条件をあれこれ振っても検証精度80%が精一杯.LSTMで単語埋め込みの初期値を指定しない場合と同程度の精度であることを考えると「単語埋め込み層を省いている分だけ最適化ができていない」という解釈になるのでしょうか.
88. パラメータチューニング
問題85や問題87のコードを改変し,ニューラルネットワークの形状やハイパーパラメータを調整しながら,高性能なカテゴリ分類器を構築せよ.
問題85で作った双方向LSTMでパラメータチューニングを行ってみます.(とはいえ,既に90%程度の精度が出ているので,さらなる向上が望めるかどうか・・・).では,せっかくMATLABなんで,「実験マネージャー」を使ってやってみましょう.
実験マネージャを起動すると(コマンドから experimentManager 入力),「プロジェクトを作ります」と言われるので,適当なフォルダ上でプロジェクトを作成します.そして,そのフォルダ内にデータ,外部関数などの必要なファイルを全てコピーします.
すると,下のような実験マネージャのウィンドウがでてきます.Experiment1というタブの「ハイパーパラメーターテーブル」に,振りたいパラメータの変数名と,振りたい値を記入します.この変数名が,次に出てくる「セットアップ関数」の引数(構造体)のフィールド名になります.
パラメータを振って学習をすすめるのですが,そのために各種変数などを「仕込む」セットアップ関数を用意しなければなりません.今回使ったセットアップ関数(Experiment1_setup1.m
)はこんな感じ.
セットアップ関数(`Experiment1_setup1.m`)
function [XTrain,YTrain,layers,options] = Experiment1_setup1(prms)
filePath = "C:\Users\toru_\Documents\3. 科学技術\MATLAB\言語処理100本ノック";
dataFile = fullfile(filePath,"data4LSTM.mat");
load(dataFile,"XTrain","YTrain","XValid","YValid","embInit","enc2");
inputSize = 1;
numWords = enc2.NumWords;
nDimEmb = 300;
nHidden = prms.nHidden;
numClasses = 4;
layers = [ ...
sequenceInputLayer(inputSize) ...
wordEmbeddingLayer(nDimEmb, numWords,'Weights', embInit') ...
lstmLayer(nHidden,'OutputMode','last','HiddenState',zeros(nHidden,1)) ...
fullyConnectedLayer(numClasses) ...
softmaxLayer ...
classificationLayer];
options = trainingOptions('sgdm', ...
'MaxEpochs',30, ...
'MiniBatchSize',256, ...
'InitialLearnRate', prms.initialLearnRate, ...
'LearnRateSchedule',"piecewise", ...
'LearnRateDropFactor',0.8, ...
'LearnRateDropPeriod',prms.LearnRateDropPeriod, ...
'Shuffle',"every-epoch", ...
'Plots','training-progress', ...
'ValidationData',{XValid, YValid}, ...
'ValidationFrequency',41, ...
"L2Regularization",prms.L2R, ...
"Verbose",false,"ExecutionEnvironment","gpu");
end
function [wordID,enc] = preprocess(dataTbl,enc)
str = dataTbl.Title;
docs = tokenizedDocument(str);
docs = addPartOfSpeechDetails(docs);
docs = removeStopWords(docs);
% docs = normalizeWords(docs);
docs = erasePunctuation(docs);
docs = removeShortWords(docs,2);
docs = removeLongWords(docs,15);
bows = bagOfWords(docs);
nWordsToEncode = nnz(sum(bows.Counts)>1);
if nargin < 2
enc = wordEncoding(docs,'Order','Frequency','MaxNumWords',nWordsToEncode);
end
wordID = doc2sequence(enc,docs,"Length",13);
end
function Xemb = enc2emb(enc,emb,X)
numSamples = size(X,1); % サンプル数
numSeq = size(X{1},2); % X のシーケンス長
Xemb = zeros([emb.Dimension numSeq 1 numSamples]);
for kk = 1:numSamples
% XをIDから単語に変換しますが,この際にIDが0になっているものは無視します.
tmpWords = ind2word(enc, X{kk}(X{kk}>0));
% 単語の列を単語ベクトルに変換します.
tmpVec = word2vec(emb, tmpWords)';
% サンプルによって1シーケンスに含まれる単語の数は異なっているので,
% 初めにサンプル数×シーケンス長のゼロ行列を用意しておいて,後から内容を埋めます
Xemb(:,1:size(tmpVec,2),:,kk) = tmpVec;
end
end
一つのセットアップ関数の中で,データの読み込みも含めて学習が全てが完結するようにします.ですので,外部関数として作ったサポート関数も,ファイル内にあらためてコピペしています.(パスの設定やら何やらちゃんとやればこんなことしなくても動くのかもしれません.今回はとりあえず動かすということで,そのあたりの探求はまた今度.)
セットアップ関数の引数が構造体になっていて,値を振りたいパラメータをその構造体のフィールドに設定します.
準備ができたら「実行」ボタンを押すだけ.可能なパラメータの組を,全てに渡って自動的に走らせてくれます.途中経過と結果は,下の図のように表示されます.学習の様子や混同行列を表示させることもできるので,どのパラメータの組が良いかの検討が一気にできます.
結果的には,どのパラメータをとっても,検証精度90%程度でほとんど変わりませんでした.トホホ・・・
-
Livescript から markdown への変換は livescript2markdown: MATLAB's live scripts to markdown を使っています. ↩