活性化関数のうちこの2つを描いてみます
%matplotlib inline
%config InlineBackend.figure_format = 'retina'
import matplotlib.pyplot as plt
import numpy as np
##まずはsigmoid関数
sigmoid関数の定義
def sigmoid(x):
return 1/(1+np.exp(-x))
横軸xの取りうる範囲は -6.0から6.0まで0.1ずつ増加
x = np.arange(-6.0,6.0,0.1)
yを今作ったsigmoid関数の戻り値とする
y =sigmoid(x)
実際にプロット
plt.plot(x,y)
![download.png](https://qiita-user-contents.imgix.net/https%3A%2F%2Fqiita-image-store.s3.ap-northeast-1.amazonaws.com%2F0%2F477622%2Fdbddebdf-6f83-27af-2dd7-1a651675ee84.png?ixlib=rb-4.0.0&auto=format&gif-q=60&q=75&s=9180e6b248fe5eb90e835d28c8beedbc)
##次にReLU(ランプ)関数
ReLU関数の定義
def relu(x):
return np.maximum(0,x)
#xが0以下ではyは0、xが正の時はidentity mapping(つまりy=xの恒等写像)
y_reluを今作ったReLU関数の戻り値とする(xの取りうる範囲は先ほどと同様-6から6)
y_relu =relu(x)
実際にプロット
plt.plot(x,y_relu)
![download-1.png](https://qiita-user-contents.imgix.net/https%3A%2F%2Fqiita-image-store.s3.ap-northeast-1.amazonaws.com%2F0%2F477622%2F32d1b82b-59f6-a139-a4ba-391e831bf610.png?ixlib=rb-4.0.0&auto=format&gif-q=60&q=75&s=52256f8d9188a69880e11731c4358d77)