Help us understand the problem. What is going on with this article?

BatchNormalizationをモデルに組み込む

More than 1 year has passed since last update.

色々な話を聞くと効果絶大なBatchNormalizationを使ってみました

とりあえず、お魚の本 p.187を参考に
「Affine->BatchNormalization->Relu」
の形でモデルを作りたいと思い

Dense(64, activation='relu')(x)

Denseの中からactivationをどうやって出すんだ?
と10分ほど悩んだので掲載します。
わかってみると、こう書くしかないですね・・・

import

from keras.layers import Dense, BatchNormalization, Activation

functionalの場合

x = Dense(64, activation='relu')(x)

x = Dense(64)(x)
x = BatchNormalization()(x)
x = Activation('relu')(x)

Sequentialの場合

model.add(64, activation='relu')

model.add(Dense(64)
model.add(BatchNormalization())
model.add(Activation('relu'))
tom_eng_ltd
2018からCNNとかをいじりだした初心者です。 何故か最近はロボットを動かしています。 自分で作業していて、はまった内容を掲載していきたいと思います。 2020年のあるイベントのロボット製作が忙しくて記事UP出来ていませんでしたが コロナで延期な上に残業規制まで始まったのでぼちぼち記事を上げていこうと思います。
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away