TensorFlow入门:实现简单的CNN

 
 
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time    : 2018/5/14 21:38
# @Author  : HJH
# @Site    : 
# @File    : CNN.py
# @Software: PyCharm

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

def compute_accuracy(v_xs,v_ys):
    global prediction
    y_pre=sess.run(prediction,feed_dict={xs:v_xs,keep_porb:1})
    correct_prediction=tf.equal(tf.argmax(y_pre,1),tf.argmax(v_ys,1))
    accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
    result=sess.run(accuracy,feed_dict={xs:v_xs,ys:v_ys,keep_porb:1})
    return result

def weight_variable(shape):
    inital=tf.truncated_normal(shape,stddev=0.1)
    return tf.Variable(inital)

def biases_variable(shape):
    inital=tf.constant(0.1,shape=shape)
    return tf.Variable(inital)

#卷积层
def conv2d(x,W):
    #第一个参数为当前层的节点矩阵(四维矩阵,后三维对应一个节点矩阵,第一维表示第几张图片)
    #第二个参数为卷积层过滤器的权重
    #第三个参数为不同维度上的步长
    #strides=[1,x_movement,y_movement,1]
    #strides[0]=strides[3]必须等于1,因为卷积层的步长只对矩阵的长和宽有效
    #第四个参数是填充的方法,SAME表示全0填充,VALID表示不填充
    return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME')

#最大池化层
def max_pool_2x2(x):
    # 第一个参数为当前层的节点矩阵(四维矩阵,后三维对应一个节点矩阵,第一维表示第几张图片)
    # 第二个参数为过滤器的尺寸,第一个和最后一个必须是1
    # 意味着池化层的过滤器不可以跨不同不同输入样例或者节点尺寸深度
    # 第三个参数为不同维度上的步长
    # strides=[1,x_movement,y_movement,1]
    # strides[0]=strides[3]必须等于1
    #意味着池化层不能减少节点矩阵的深度或者输入样例的个数
    # 第四个参数是填充的方法,SAME表示全0填充,VALID表示不填充
    return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')

if __name__=='__main__':
    mnist=input_data.read_data_sets('MNIST_data',one_hot=True)

    xs=tf.placeholder(tf.float32,[None,784])
    ys=tf.placeholder(tf.float32,[None,10])
    #正则
    keep_porb=tf.placeholder(tf.float32)
    #1代表的含义是不用我们自己指定这一维的大小,函数会自动计算,但列表中只能存在一个-1
    x_image=tf.reshape(xs,[-1,28,28,1])
    #print(x_image.shape)#[n_samples,28,28,1]

    #conv1 layyer
    #5*5:patch(卷积核大小)
    #1:in_size(图像的厚度)
    #32:out_size(图像的厚度)
    #32也可以理解为卷积核的个数
    W_conv1=weight_variable([5,5,1,32])
    b_conv1=biases_variable([32])
    h_conv1=tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)#output size:28*28*32
    h_pool1=max_pool_2x2(h_conv1)#output size:14*14*32

    #conv2 layer
    W_conv2=weight_variable([5,5,32,64])
    b_conv2=biases_variable([64])
    h_conv2=tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)#output size:14*14*64
    h_pool2=max_pool_2x2(h_conv2)#output size:7*7*64

    #func1 layer
    W_fc1=weight_variable([7*7*64,1024])
    b_fc1=biases_variable([1024])
    # [n_samples,7,7,64]>>[n_samples,7*7*64]
    h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64])
    h_fc1=tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1)
    h_fc1_drop=tf.nn.dropout(h_fc1,keep_porb)

    #func2 layer
    W_fc2 = weight_variable([1024, 10])
    b_fc2 = biases_variable([10])
    prediction = tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2)

    cross_entropy=tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction),reduction_indices=[1]))
    train_step=tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

    sess=tf.Session()
    sess.run(tf.global_variables_initializer())

    for i in range(1000):
        batch_xs,batch_ys=mnist.train.next_batch(100)
        sess.run(train_step,feed_dict={xs:batch_xs,ys:batch_ys,keep_porb:0.5})
        if i%50==0:
            print("testaccuracy", compute_accuracy(mnist.test.images[:1000], mnist.test.labels[:1000]))

 

猜你喜欢

转载自blog.csdn.net/m_z_g_y/article/details/80320668