Help us understand the problem. What is going on with this article?

ゼロから作るDeepLearningをJavaで勉強する。

※注意
この記事は、まだこの本を読み始めたばかりの私が自分のために書いている自己満要素が多いのでレベルが低い且つ
内容が間違っていたりおかしなコードになっている可能性があります。
あと用語の説明などはあまりしないので機械学習を知らない人には意味不明だと思います。
徐々にこの記事を更新していきます。

(単層)パーセプトロンの実装

パーセプトロン:アルゴリズムの一種。
       ニューラルネットワークのもととなったアルゴリズム。        
       活性化関数にステップ関数を用いる。
       単層だと線形領域しか表現できない。

コンストラクタにバイアスと各入力信号の重みを渡してANDやOR,NANDを表現する。

public class PerceptronSample {

    private double b, w1, w2;

    PerceptronSample(double b, double w1, double w2){
        this.b = b;
        this.w1 = w1;
        this.w2 = w2;
    }

    int perceptron(int x1, int x2){
       double tmp = (x1*w1 + x2*w2) + b; //総和
        return tmp > 0 ? 1: 0;
    }




    public static void main(String[] args) {

        PerceptronSample perceptronSample = new PerceptronSample(-0.5, 0.3, 0.3); 
        //バイアス, 入力1, 入力2
        //今回はAND回路


        System.out.println("" +
                perceptronSample.perceptron(0, 0) +
                perceptronSample.perceptron(1, 0) +
                perceptronSample.perceptron(0, 1) +
                perceptronSample.perceptron(1, 1)
        );

    }

}

結果は0001となります。

多層パーセプトロンでXORを表現。

  パーセプトロンの層を深くしたもの。
  単層パーセプトロンでは解決できない問題を解決できる。  

XORはNANDとORとANDで表現する。

public class MultilayerPerceptronSample {

    private double b, w1, w2;

    MultilayerPerceptronSample(double b, double w1, double w2){
        this.b = b;
        this.w1 = w1;
        this.w2 = w2;
    }

    int perceptron(int x1, int x2, MultilayerPerceptronSample m1, MultilayerPerceptronSample m2){

        if (m1 != null && m2 != null){
            int x[] = {x1, x2};
            x1 = m1.perceptron(x[0], x[1], null, null);
            x2 = m2.perceptron(x[0], x[1], null, null);
            double tmp = (x1*w1 + x2*w2) + b;
            return tmp > 0.0 ? 1 : 0;
        }else {
        double tmp = (x1*w1 + x2*w2) + b; //総和

        return tmp > 0.0 ? 1 : 0;
        }
    }






    public static void main(String[] args) {

        MultilayerPerceptronSample AND = new MultilayerPerceptronSample(-0.5, 0.3, 0.3);
        MultilayerPerceptronSample NAND = new MultilayerPerceptronSample(0.5, -0.3, -0.3);
        MultilayerPerceptronSample OR = new MultilayerPerceptronSample(-0.3, 0.5, 0.5);




        System.out.println(" " +
                AND.perceptron(0, 0, NAND, OR)+
                AND.perceptron(1, 0, NAND, OR)+
                AND.perceptron(0, 1, NAND, OR)+
                AND.perceptron(1, 1, NAND, OR)


        );


    }

}
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
Comments
No comments
Sign up for free and join this conversation.
If you already have a Qiita account
Why do not you register as a user and use Qiita more conveniently?
You need to log in to use this function. Qiita can be used more conveniently after logging in.
You seem to be reading articles frequently this month. Qiita can be used more conveniently after logging in.
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
ユーザーは見つかりませんでした