#!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/5/14 21:38 # @Author : HJH # @Site : # @File : CNN.py # @Software: PyCharm import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data def compute_accuracy(v_xs,v_ys): global prediction y_pre=sess.run(prediction,feed_dict={xs:v_xs,keep_porb:1}) correct_prediction=tf.equal(tf.argmax(y_pre,1),tf.argmax(v_ys,1)) accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) result=sess.run(accuracy,feed_dict={xs:v_xs,ys:v_ys,keep_porb:1}) return result def weight_variable(shape): inital=tf.truncated_normal(shape,stddev=0.1) return tf.Variable(inital) def biases_variable(shape): inital=tf.constant(0.1,shape=shape) return tf.Variable(inital) #卷积层 def conv2d(x,W): #第一个参数为当前层的节点矩阵(四维矩阵,后三维对应一个节点矩阵,第一维表示第几张图片) #第二个参数为卷积层过滤器的权重 #第三个参数为不同维度上的步长 #strides=[1,x_movement,y_movement,1] #strides[0]=strides[3]必须等于1,因为卷积层的步长只对矩阵的长和宽有效 #第四个参数是填充的方法,SAME表示全0填充,VALID表示不填充 return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME') #最大池化层 def max_pool_2x2(x): # 第一个参数为当前层的节点矩阵(四维矩阵,后三维对应一个节点矩阵,第一维表示第几张图片) # 第二个参数为过滤器的尺寸,第一个和最后一个必须是1 # 意味着池化层的过滤器不可以跨不同不同输入样例或者节点尺寸深度 # 第三个参数为不同维度上的步长 # strides=[1,x_movement,y_movement,1] # strides[0]=strides[3]必须等于1 #意味着池化层不能减少节点矩阵的深度或者输入样例的个数 # 第四个参数是填充的方法,SAME表示全0填充,VALID表示不填充 return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME') if __name__=='__main__': mnist=input_data.read_data_sets('MNIST_data',one_hot=True) xs=tf.placeholder(tf.float32,[None,784]) ys=tf.placeholder(tf.float32,[None,10]) #正则 keep_porb=tf.placeholder(tf.float32) #1代表的含义是不用我们自己指定这一维的大小,函数会自动计算,但列表中只能存在一个-1 x_image=tf.reshape(xs,[-1,28,28,1]) #print(x_image.shape)#[n_samples,28,28,1] #conv1 layyer #5*5:patch(卷积核大小) #1:in_size(图像的厚度) #32:out_size(图像的厚度) #32也可以理解为卷积核的个数 W_conv1=weight_variable([5,5,1,32]) b_conv1=biases_variable([32]) h_conv1=tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)#output size:28*28*32 h_pool1=max_pool_2x2(h_conv1)#output size:14*14*32 #conv2 layer W_conv2=weight_variable([5,5,32,64]) b_conv2=biases_variable([64]) h_conv2=tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)#output size:14*14*64 h_pool2=max_pool_2x2(h_conv2)#output size:7*7*64 #func1 layer W_fc1=weight_variable([7*7*64,1024]) b_fc1=biases_variable([1024]) # [n_samples,7,7,64]>>[n_samples,7*7*64] h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64]) h_fc1=tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1) h_fc1_drop=tf.nn.dropout(h_fc1,keep_porb) #func2 layer W_fc2 = weight_variable([1024, 10]) b_fc2 = biases_variable([10]) prediction = tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2) cross_entropy=tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction),reduction_indices=[1])) train_step=tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) sess=tf.Session() sess.run(tf.global_variables_initializer()) for i in range(1000): batch_xs,batch_ys=mnist.train.next_batch(100) sess.run(train_step,feed_dict={xs:batch_xs,ys:batch_ys,keep_porb:0.5}) if i%50==0: print("testaccuracy", compute_accuracy(mnist.test.images[:1000], mnist.test.labels[:1000]))
TensorFlow入门:实现简单的CNN
猜你喜欢
转载自blog.csdn.net/m_z_g_y/article/details/80320668
今日推荐
周排行