1
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

機械学習: パーセプトロン の Python コードを1行1行理解してデータ分類してみた

Last updated at Posted at 2022-12-29

初期の機械学習アルゴリズムに、 パーセプトロン とADALINEというのがあるらしいので、今回はまずパーセプトロンを実装していきます。パーセプトロンは、しきい値によってデータを区別する単純な学習規則です。

Python機械学習プログラミング(←Amazonのリンクはこちら)を読みながら進めているのですが、それだけだとコード1行1行完璧に理解できていないので、めちゃくちゃ調べながらコード中にコメントを書き込んでいきたいと思います。(本記事はあくまでコードの理解を深めるものなので、計算や背景などに関する詳しい部分はこの本を読んで確認してください。)

パーセプトロン

まず、パーセプトロンという学習規則についてです。
下の表のようなデータセットを何かしらの基準で分類していくことを考えます。

データテーブルの例

特徴量1 特徴量2 ...
データ1 x1_1 x1_2 ...
データ2 x2_1 x2_2 ...
データ3 x3_1 x3_2 ...
...

パーセプトロンはもうほとんど使われていないようですが、元祖機械学習アルゴリズムということで勉強しておいた方が後の機械学習の理解に役立つでしょう。

データの分類においてパーセプトロンは簡単に言えば、しきい値(nより大きいか小さいか)でAかBかを区別してみて、それが合ってたらOK、間違ってたら修正するというのを繰り返すものです。

じゃあ何を修正するの?という話なのですが、訓練データにはそれぞれ重みというのが掛け算でかかっています。もっというと、訓練データの持つ特徴量それぞれに重みがかかっています。この重みを修正するのです。

ちなみに重みは全ての訓練データ共通です。

w = (w1, w2, w3, …)

しきい値がどんな値であろうとこの重みで訓練データを大きくしたり小さくしたりできるので、しきい値を正しくくぐり抜けられるように重みを修正していくのです。

そして何をしきい値に通すの?というと、その一つのデータが持つそれぞれの特徴量×重みを全て足したものです。この計算をするのが、下の図でいう総入力関数です。

image.png

ポイントは、答え合わせをするのはあくまでしきい値に通した後であり、予測ラベルさえ合ってれば重みが少々的外れでも何も言われないというところです。

Pythonで実装

筆者は以下のPythonコードをGoogleColaboratoryで実行しました。GoogleColaboratoryは環境構築が必要ないので便利です。

訓練データもネットから引っ張ってくるので用意する必要がありません!

早速ですが以下がパーセプトロンのプログラミングになります。

今回やることは、2種類の花合計100枚を機械学習によって種類を区別し、結果を表示させることです。

パーセプトロン の実装

# データの格納と操作に便利なNumPyパッケージの多次元配列を用いる
import numpy as np

# パーセプトロンオブジェクトを定義していく
class Perceptron(object):
    
    # コンストラクタ
    def __init__(self, eta=0.01, n_iter=50, random_state=1):
    # selfはインスタンス自身を表す
        # etaなどの各パラメータの説明はコードの下部に記載
        self.eta = eta
        self.n_iter = n_iter
        self.random_state = random_state

    #訓練データに適合させるメソッド
    def fit(self, X, y):
        
        # NumPyの乱数生成器rgenを生成
        rgen = np.random.RandomState(self.random_state)
        # 重みを標準偏差0.01の正規分布中の小さな乱数で初期化
        self.w_ = rgen.normal(loc=0.0, scale=0.01, size=1 + X.shape[1])
        self.errors_ = []

        # 訓練回数分だけ繰り返すfor文
        for _ in range(self.n_iter):
            # 誤分類の個数を0で初期化
            errors = 0
            # 訓練データを一つずつ処理していく
            for xi, target in zip(X, y):
                # 重みの更新 predictメソッドでクラスラベルを予測
                # 学習率×(答えと予測の差)×この訓練データ
                update = self.eta * (target - self.predict(xi))
                # 重みw_1以降の更新
                self.w_[1:] += update * xi
                # 更新w_0の更新
                self.w_[0] += update
                # 更新する重みが0でない、つまり予測が答えとずれていた場合
                # →誤分類にカウントされる
                errors += int(update != 0.0)
            # 今回の誤分類の個数を格納
            self.errors_.append(errors)
        return self

    def net_input(self, X):
        # 総入力を計算
        return np.dot(X, self.w_[1:]) + self.w_[0]

    def predict(self, X):
        # 1ステップ後のクラスラベルを返す
        return np.where(self.net_input(X) >= 0.0, 1, -1)

パーセプトロンの分類器(コード全体)

パラメータ
eta float 学習率(0.0 < eta <= 1.0)
n_iter int 訓練データの訓練回数
random_state int 重みを初期化するための乱数シード
属性
w_ 1次元配列 適合後の重み
errors_ リスト 各エポックでの誤分類の数

def fit(self, X, y)

パラメータ
X データフレーム shape:[n_examples, n_features] 訓練データ
y データフレーム shape:[n_examples] 目的変数

戻り値
self : object

かなりコメントが多くなってしまいましたが、かなり理解できました。

訓練データセットを用意

では実行するための訓練データを用意します。
GoogleColaboratoryでは上記のコードブロックの下に次のコードブロックを追加します。

import os
import pandas as pd

#Irisデータセットを使う(ネット環境必要)
s = 'https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data'
print('URL:', s)

df = pd.read_csv(s,
                 header=None,
                 encoding='utf-8')

#確認のため最後の5行だけ出力してみる
df.tail()

image.png

次に

  1. Iris-setosaの50枚の花とIris-versicolorの50枚の花に対応する100個のクラスラベルを抽出(6行目)
  2. これらを1(versicolor)と-1(setosa)の2つのクラスラベルに変換し、ベクトルyに代入(9行目)
  3. 100個の訓練データそれぞれの1列目(がく片の長さ)と3列目(花びらの長さ)を特徴量行列Xに代入(12行目)
  4. この2つの特徴量軸で散布図に表す

を実行します。

%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np

# 1-100行目の目的変数の抽出
y = df.iloc[0:100, 4].values

# Iris-setosaを-1、それ以外(Iris-versicolor)を1に変換
y = np.where(y == 'Iris-setosa', -1, 1)

# 1-100行目の1、3列目を抽出
X = df.iloc[0:100, [0, 2]].values

# setosaは赤の〇
plt.scatter(X[:50, 0], X[:50, 1],
            color='red', marker='o', label='setosa')
# versicolorは青の✕
plt.scatter(X[50:100, 0], X[50:100, 1],
            color='blue', marker='x', label='versicolor')

plt.xlabel('sepal length [cm]')
plt.ylabel('petal length [cm]')
plt.legend(loc='upper left')

# 散布図を表示
plt.show()

image.png
↑この散布図のsetosaとversicolorの境界線を手書きするのは簡単そうですね。それをパソコンにやらせてみましょう。

ここからがパーセプトロンのアルゴリズムの出番です。いざ訓練!!

パーセプトロン に通して訓練

訓練しながら、ちゃんと境界線ができたのかをチェックするために各エポックの誤分類の個数もプロットしていきます。

# パーセプトロンのオブジェクトの生成(インスタンス化)
ppn = Perceptron(eta=0.1, n_iter=10)

# 訓練データへのモデルの適合!
ppn.fit(X, y)

# エポックと誤分類の関係を表す折れ線グラフをプロット
plt.plot(range(1, len(ppn.errors_) + 1), ppn.errors_, marker='o')
# 軸のラベル設定
plt.xlabel('Epochs')
plt.ylabel('Number of updates')

# 図の表示
plt.show()

ちなみにエポックとは、何度も繰り返すパーセプトロン処理それぞれのことを指します。
image.png
このグラフから、6回目のエポックでパーセプトロンは既に収束していることが分かります。
ということはこの時点で訓練データを完全に境界線で分類できるようになっているはずです。

図で確認

では可視化していきましょう。

from matplotlib.colors import ListedColormap


def plot_decision_regions(X, y, classifier, resolution=0.02):

    # マーカーとカラーマップの準備
    markers = ('s', 'x', 'o', '^', 'v')
    colors = ('red', 'blue', 'lightgreen', 'gray', 'cyan')
    cmap = ListedColormap(colors[:len(np.unique(y))])

    # 決定領域のプロット
    x1_min, x1_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    x2_min, x2_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    # グリッドポイントの生成
    xx1, xx2 = np.meshgrid(np.arange(x1_min, x1_max, resolution),
                           np.arange(x2_min, x2_max, resolution))
    # 各特徴量を1次元配列に変換して予測を実行
    Z = classifier.predict(np.array([xx1.ravel(), xx2.ravel()]).T)
    # 予測結果を元のグリッドポイントのデータサイズに変換
    Z = Z.reshape(xx1.shape)
    # グリッドポイントの等高線のプロット
    plt.contourf(xx1, xx2, Z, alpha=0.3, cmap=cmap)
    # 軸の範囲の設定
    plt.xlim(xx1.min(), xx1.max())
    plt.ylim(xx2.min(), xx2.max())

    # クラスごとに訓練データをプロット
    for idx, cl in enumerate(np.unique(y)):
        plt.scatter(x=X[y == cl, 0], 
                    y=X[y == cl, 1],
                    alpha=0.8, 
                    c=colors[idx],
                    marker=markers[idx], 
                    label=cl, 
                    edgecolor='black')

続けてさらに次のコードで図を完成させます。

plot_decision_regions(X, y, classifier=ppn)
plt.xlabel('sepal length [cm]')
plt.ylabel('petal length [cm]')
plt.legend(loc='upper left')

plt.show()

image.png
おー、本当にできてますね!

↓次回はADALINEを実装していきます。

1
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?