#0.はじめに
今までKerasを使っていた人がいざpytorchを使うってなった際に、Kerasでは当たり前にあった機能がpytorchでは無い!というようなことに困惑することがあります。
KerasではcallbackとしてEarlyStopping
の機能が備わっていますが、Pytorchではデフォルトでこの機能は存在せず、自分で実装する必要があります。
今回はそれを実装したので共有しておきます。
#1.EarlyStoppingって何なのか?
本記事を見るような方はすでにご存じかもしれませんが、一応説明します。
・そもそも何Epoch学習を回せばいいのかなんて初見ではわからない
・Epoch数を重ねるたびにlossは下がるが、訓練データに過学習する可能性がある
・せっかくlossが下がっても、そのまま放置しすぎるとlossが上がっていってしまうケースがある
こんなの時に便利なのがこのEarlyStoppingなのである。
★とりあえずEpoch数は大きく設定しておけばいい(EarlyStoppingが止めてくれるから)
★学習が収束した時に自動的に学習を止めてくれる(過学習防止)
#2.EarlyStoppingクラスを作成する
プログラム的には
・何回lossの最小値を更新しなかったら学習をやめるか?を決めて(patience)
・監視しているlossが最低値を更新できない数をカウントし(counter)
・監視しているlossが最低値を更新したときだけ学習済モデルを保存しておき、そのlossを記録(checkpoint)
・監視しているlossが設定数だけ最低値を更新できない場合に学習ループを抜ける(early_stop )
これらを実装すればいいだけである。
class EarlyStopping:
"""earlystoppingクラス"""
def __init__(self, patience=5, verbose=False, path='checkpoint_model.pth'):
"""引数:最小値の非更新数カウンタ、表示設定、モデル格納path"""
self.patience = patience #設定ストップカウンタ
self.verbose = verbose #表示の有無
self.counter = 0 #現在のカウンタ値
self.best_score = None #ベストスコア
self.early_stop = False #ストップフラグ
self.val_loss_min = np.Inf #前回のベストスコア記憶用
self.path = path #ベストモデル格納path
def __call__(self, val_loss, model):
"""
特殊(call)メソッド
実際に学習ループ内で最小lossを更新したか否かを計算させる部分
"""
score = -val_loss
if self.best_score is None: #1Epoch目の処理
self.best_score = score #1Epoch目はそのままベストスコアとして記録する
self.checkpoint(val_loss, model) #記録後にモデルを保存してスコア表示する
elif score < self.best_score: # ベストスコアを更新できなかった場合
self.counter += 1 #ストップカウンタを+1
if self.verbose: #表示を有効にした場合は経過を表示
print(f'EarlyStopping counter: {self.counter} out of {self.patience}') #現在のカウンタを表示する
if self.counter >= self.patience: #設定カウントを上回ったらストップフラグをTrueに変更
self.early_stop = True
else: #ベストスコアを更新した場合
self.best_score = score #ベストスコアを上書き
self.checkpoint(val_loss, model) #モデルを保存してスコア表示
self.counter = 0 #ストップカウンタリセット
def checkpoint(self, val_loss, model):
'''ベストスコア更新時に実行されるチェックポイント関数'''
if self.verbose: #表示を有効にした場合は、前回のベストスコアからどれだけ更新したか?を表示
print(f'Validation loss decreased ({self.val_loss_min:.6f} --> {val_loss:.6f}). Saving model ...')
torch.save(model.state_dict(), self.path) #ベストモデルを指定したpathに保存
self.val_loss_min = val_loss #その時のlossを記録する
#3.CIFER10の画像分類に組み込んで使う
サンプルとして作成したクラスを使って、CIFER10の画像分類で使ってみます。
pytorch初心者もわかるように、1文1文に何やってるか?のコメントも書いてますので参考にしてください。
また、分かりやすいようにearlystoppingに関連する部分は★~~★でコメント書いています。
##3-1.まずはCIFER10の分類に使うCNNクラス作成まで
import torch
import torchvision
from torch.utils.data import Dataset
import torchvision.transforms as transforms
from torchvision import models
from torch import nn,optim
import numpy as np
import matplotlib.pyplot as plt
class EarlyStopping:
"""★上で書いてるので省略★"""
class Mynet(nn.Module):
"""自作CNN"""
def __init__(self):
super(Mynet, self).__init__()
# 畳み込み層の定義
self.conv1 = nn.Conv2d(3, 6, 5) # コンボリューション1
self.conv2 = nn.Conv2d(6, 16, 5) # コンボリューション2
# 全結合層の定義
self.fc1 = nn.Linear(16 * 5 * 5, 120) # 全結合
self.fc2 = nn.Linear(120, 84) # 全結合
self.fc3 = nn.Linear(84, 10) # CIFAR10のクラス数が10なので出力を10にする
#プーリング層の定義
self.pool = nn.MaxPool2d(2, 2) # maxプーリング
def forward(self, x):
x = self.pool(F.relu(self.conv1(x))) # conv1~relu~pool
x = self.pool(F.relu(self.conv2(x))) # conv2~relu~pool
x = x.view(-1, 16 * 5 * 5) # 平坦化(1次元化する)
x = F.relu(self.fc1(x)) # fc1~relu
x = F.relu(self.fc2(x)) # fc2~relu
x = self.fc3(x) #fc3~10分類
return x
##3-2.学習ループ関数
def train_net(n_epochs, train_loader, net, optimizer_cls, loss_fn, device='cpu'):
"""学習ループ部分"""
#★EarlyStoppingクラスのインスタンス化★
earlystopping = EarlyStopping(patience=1, verbose=True) #検証なのでわざとpatience=1回にしている
losses = [] #loss遷移の記録用
net.to(device) #ネットワークをGPUへ
for epoch in range(n_epochs):
running_loss = 0.0 #loss初期化
net.train() #netをtrainingモードに
for index, data in enumerate(train_loader):
inputs, labels = data #画像とラベルを取り出す
inputs = inputs.to(device) #画像をGPUへ
labels = labels.to(device) #ラベルもGPUに
optimizer_cls.zero_grad() #勾配を初期化
outputs = net(inputs) #ネットワークで予測
loss = loss_fn(outputs, labels) #loss計算
loss.backward() #逆伝番
optimizer.step() #勾配を更新
running_loss += loss.item() #バッチごとのlossを足していく
losses.append(running_loss / index) #loss遷移を記録
print("epoch", epoch, ": ", running_loss / index) #学習経過の表示
#★毎エポックearlystoppingの判定をさせる★
earlystopping((running_loss / index), net) #callメソッド呼び出し
if earlystopping.early_stop: #ストップフラグがTrueの場合、breakでforループを抜ける
print("Early Stopping!")
break
return losses
##3-3.main部分
#前処理部分(Tensor化、正規化)
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize(
(0.5, 0.5, 0.5), # RGB 平均
(0.5, 0.5, 0.5)# RGB 標準偏差
)
])
#CIFAR10をダウンロードしてデータセット作成
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
#データローダーを作成
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2)
#ネットワークをインスタンス化
model = Mynet()
#学習設定
criterion = nn.CrossEntropyLoss() #損失関数をクロスエントロピーに
optimizer = optim.Adam(model.parameters(), lr=0.001) #オプティマイザはAdam
epochs = 10000 #エポック数 ★とりあえず大きく設定しておけばいいので1万としておいた★
device = torch.device("cuda:0" if torch.cuda. is_available() else "cpu") #デバイス(GPU or CPU)設定
#学習開始(作成した学習関数を呼び出す)
losses = train_net(n_epochs=epochs,
train_loader=trainloader,
net=model,
optimizer_cls=optimizer,
loss_fn=criterion,
device=device
)
すると、以下の実行結果が表示される。
epoch 0 : 1.0410267220779432
Validation loss decreased (inf --> 1.041027). Saving model ...
epoch 1 : 1.0064437736963907
Validation loss decreased (1.041027 --> 1.006444). Saving model ...
・
(略)
・
epoch 25 : 0.7393526346215752
Validation loss decreased (0.741965 --> 0.739353). Saving model ...
epoch 26 : 0.7438237962901487
EarlyStopping counter: 1 out of 1
Early Stopping!
・26epoch目でloss値が「0.743」となっており、それまでのベストスコア(25epoch目)である「0.739」を更新できなかった
・patience=1としているので、1回でもベストスコアを更新できなければ学習ループを抜ける設定
##3-4.loss推移+保存したモデル確認
lossの推移を見てみると、確かに26epoch目でloss値が上向いていることが確認できる。
さらに保存した学習済モデルに関してはこの26epoch目ではなく、25epoch目が保存されている
plt.plot(losses, label='train_loss')
plt.xlabel('Epochs')
plt.ylabel('loss')
plt.legend()
plt.show()
##3-5.ベストモデルを適応させる
このままだとmodel
変数には26epoch目の学習が反映されている為、保存したモデルを一度適応させる必要がある。
これで最高性能のモデルを使える。 ※以下省略
model.load_state_dict(torch.load('checkpoint_model.pth'))
<All keys matched successfully>
#4. さいごに
久々に画像を題材に記事書いてみました。
PytorchはKerasより記載量は多いものの、細かい部分をカスタマイズできるので今後はますます採用比率が上がると個人的には考えています。
それでは良きPytorchライフを!
#5.追記
実はpytorch lightningを使えばearlystoppingの機能を実装しなくても使用できます。
以下も参考にどうぞ。