LoginSignup
4
5

More than 5 years have passed since last update.

画像認識のチュートリアルと結果の表示

Last updated at Posted at 2016-12-11

てくてく勉強会でデモしたTensorflowのチュートリアルのサンプルに手を入れたものです。コメントと結果の表示等を付け加えています。また、最後に数字画像を幾つか取り出して目に見えるようにしてみました。

rdtensorflowsample.swift
#coding:UTF-8
# rdtensorflowsample.swift
# KatagiriSo

import input_data
import numpy as np
import matplotlib.pyplot as plt
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

import tensorflow as tf


## 画像は28*28ピクセル = 784ピクセル
## この画像から0,...,9という番号を判断したい。
Pixels = 28*28
Pattern = 10
LearningRate = 0.01



# 入力変数定義 float32型で、(None, 784)の2階のテンソルを作る。
with tf.name_scope("input"):
    x = tf.placeholder(tf.float32, [None, Pixels],name="input")

with tf.name_scope("Weight"):
    # 重み 初期値ゼロで(784,10)の2階のテンソルを作る。
    W = tf.Variable(tf.zeros([Pixels, Pattern]), name="weights")
    # バイアス 初期値0で(10)の1階のテンソルをつくる
    b = tf.Variable(tf.zeros([Pattern]), name="bias")

with tf.name_scope("Output"):
    # ソフトマックス活性化関数
    y = tf.nn.softmax(tf.matmul(x, W) + b, name="softmax")

with tf.name_scope("optimizer"):
    # 正解
    right_answer = tf.placeholder(tf.float32, [None, Pattern], name="answer")
    # 交差エントロピーの定義
    cross_entropy = -tf.reduce_sum(right_answer*tf.log(y), name="loss")

    # 勾配降下法で重みを調整する
    # 学習比率 0.01
    optimaizerNode = tf.train.GradientDescentOptimizer(LearningRate).minimize(cross_entropy)
    #optimaizerNode = tf.train.AdamOptimizer().minimize(cross_entropy)




## 結果表示 ##

with tf.name_scope("result"):
    # それぞれの分布から最も確率の高いもの同士を見比べ同じであるかを調べる。
    correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(right_answer,1))

    # 正答率を計算する。
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"), name="accuracy")


# グラフ表示用
tf.scalar_summary("entropy", cross_entropy)
tf.scalar_summary("accuracy", accuracy)
tf.histogram_summary("weights", W)
summary_op = tf.merge_all_summaries()



#初期化
init = tf.initialize_all_variables()

sess = tf.Session()
sess.run(init)

summary_writer = tf.train.SummaryWriter('data',sess.graph)


# 学習中
for i in range(1000):
    # データを取得 1回で100個のデータ(バッチ)を持ってくる
    batch_images, batch_answers = mnist.train.next_batch(100)
    # ステップを実行 placeholderであるx,right_anserにデータを入れてoptimaizerNodeを実行する。
    sess.run(optimaizerNode, feed_dict={x: batch_images, right_answer: batch_answers})

    # 100回に一度現状の重みでの交差エントロピーを計算しグラフ表示用に追加する。
    if i % 100 == 0:
        loss = sess.run(cross_entropy, feed_dict={x: batch_images, right_answer: batch_answers})
        acc = sess.run(accuracy, feed_dict={x: batch_images, right_answer: batch_answers})
        print("交差エントロピー%f, 精度 %f" % (loss, acc))


        summary_str = sess.run(summary_op, feed_dict={x: batch_images, right_answer: batch_answers})
        summary_writer.add_summary(summary_str, i)



# 精度表示
result = sess.run(accuracy, feed_dict={x: mnist.test.images, right_answer: mnist.test.labels})

print("最終結果 精度 %f" % result)

# 重み
w_val = sess.run(W)
b_val = sess.run(b)

#print("重み")
#print(w_val[40])
#print("バイアス")
#print(b_val)

fig = plt.figure(figsize=(8,6))

for c,(image, ans) in enumerate(zip(mnist.test.images, mnist.test.labels)):
#image = mnist.test.images[0]
#ans = mnist.test.labels[0]
    if c > 20-1:
        break

    subplot = fig.add_subplot(4,5,c+1)
    subplot.set_xticks([])
    subplot.set_yticks([])
    # 28*28 濃淡0から1, グレースケール、ピクセルのデータ補完を無効化
    subplot.imshow(image.reshape(28,28), vmin=0,vmax=1, cmap=plt.cm.gray_r, interpolation="nearest")

    # 今の重みで計算してみる
    y_val = (sess.run(tf.argmax(y,1), feed_dict={x:[image]}))[0]
    ans_val = (sess.run(tf.argmax(right_answer,1), feed_dict={right_answer:[ans]}))[0]

    #print(y_val)
    title = "pred %d ans %d" % (y_val, ans_val)
    subplot.set_title(title)


plt.show()

4
5
4

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
5