python3 7.用tensorflow进行MNIST数据集简单分类 学习笔记

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/mcyJacky/article/details/86443206

前言

     计算机视觉系列之学习笔记主要是本人进行学习人工智能(计算机视觉方向)的代码整理。本系列所有代码是用python3编写,在平台Anaconda中运行实现,在使用代码时,默认你已经安装相关的python库,这方面不做多余的说明。本系列所涉及的所有代码和资料可在我的github上下载到,gitbub地址:https://github.com/mcyJacky/DeepLearning-CV,如有问题,欢迎指出。

一、MNIST数据集

1.1 MNIST数据集简介

     MNIST数据集是深度学习巨头-卷积网络之父Yann LeCun发布的一个供计算机视觉识别学习使用的手写数据识别的数据集。它包括60000个训练集和10000个测试集,每条数据(或者说每张图片)都是28x28x1类型,即图片的宽度为28,高度为28,通道数为1。且MNIST数据集已经把图片数据转换为标准的列表数据类型,如60000个训练集的数据格式是:[60000, 784],表示有60000条数据,每条数据是784维(28x28=784)。

     MNIST数据集的下载地址是:http://yann.lecun.com/exdb/mnist/。下载下来后包括4个压缩文件:

  • t10k-images-idx3-ubyte.gz(测试集数据)
  • t10k-labels-idx1-ubyte.gz(测试集标签)
  • train-images-idx3-ubyte.gz(训练集数据)
  • train-labels-idx1-ubyte.gz(训练集标签)

     具体如下图1.1所示:

图1.1 MNIST数据集

1.2 MNIST数据集在tensorflow中的用法

import tensorflow as tf
# tensorflow自带的mnist数据
from tensorflow.examples.tutorials.mnist import input_data

# 载入数据集,使用read_data_sets()函数,如果本地MNIST_data文件夹中不存在mnist数据集就会从网上下载
# one_hot表示用独热编码表示
	# 独热编码表示:1 -> 010000000
	#			  2 -> 001000000
mnist = input_data.read_data_sets("MNIST_data", one_hot=True)

# 训练集的特征数据为
train_xs = mnist.train.images
# 训练集的标签数据为
train_ys = mnist.train.labels
# 测试集的特征数据为
test_xs = mnist.test.images
# 测试集的标签数据为
test_ys = mnist.test.labels
print(train_xs[0])
print(train_ys[0])

# 部分打印结果如下:
# [0. 0. 0. ,..., 0.5411765  0.9215687  0.9215687  0.9215687 ,..., 0. 0. 0.]
# [0. 0. 0. 0. 0. 0. 0. 1. 0. 0.]

二、使用简单的神经网络进行MNIST数据集简单分类

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

# 载入数据集
mnist = input_data.read_data_sets("MNIST_data", one_hot=True)

# 设置批次大小
batch_size = 64
# 计算一个周期一共有多少个批次
n_batch = mnist.train.num_examples // batch_size

# 定义两个placeholder,x是特征数据,y是标签
x = tf.placeholder(tf.float32,[None,784])
y = tf.placeholder(tf.float32,[None,10])

# 创建一个简单的神经网络,输入层有784个特征,输出层有10个神经元:784-10
# 权值
W = tf.Variable(tf.truncated_normal([784,10], stddev=0.1))
# 偏差
b = tf.Variable(tf.zeros([10]) + 0.1)
# 使用softmax激活函数计算预测值
prediction = tf.nn.softmax(tf.matmul(x,W)+b)

# 二次代价函数
loss = tf.losses.mean_squared_error(y, prediction)
# 使用梯度下降法,学习率为0.3
train = tf.train.GradientDescentOptimizer(0.3).minimize(loss)

# 结果存放在一个布尔型列表中
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(prediction,1))
# 求准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

# 定义会话
with tf.Session() as sess:
    # 变量初始化
    sess.run(tf.global_variables_initializer())
    # 进行训练,周期epoch:所有数据训练一次,就是一个周期
    for epoch in range(21):
    	for batch in range(n_batch):
    		# 获取一个批次的数据和标签
            batch_xs, batch_ys = mnist.train.next_batch(batch_size)
            sess.run(train, feed_dict={x:batch_xs,y:batch_ys})
        # 每训练一个周期做一次测试,用测试集做测试
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images, y:mnist.test.labels})
        print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))

# 打印结果如下:
# Iter 0,Testing Accuracy 0.8513
# Iter 1,Testing Accuracy 0.8849
# Iter 2,Testing Accuracy 0.8954
# Iter 3,Testing Accuracy 0.9016
# Iter 4,Testing Accuracy 0.9051
# Iter 5,Testing Accuracy 0.9088
# Iter 6,Testing Accuracy 0.9112
# Iter 7,Testing Accuracy 0.9128
# Iter 8,Testing Accuracy 0.9145
# Iter 9,Testing Accuracy 0.9153
# Iter 10,Testing Accuracy 0.9164
# Iter 11,Testing Accuracy 0.9163
# Iter 12,Testing Accuracy 0.9172
# Iter 13,Testing Accuracy 0.9183
# Iter 14,Testing Accuracy 0.9187
# Iter 15,Testing Accuracy 0.9192
# Iter 16,Testing Accuracy 0.9186
# Iter 17,Testing Accuracy 0.9196
# Iter 18,Testing Accuracy 0.9209
# Iter 19,Testing Accuracy 0.9203
# Iter 20,Testing Accuracy 0.9205

     由上述定义简单的神经网络进行MNIST数据集进行手写识别数字分类,它定义的是一个单层的神经网络,且训练周期为21,其测试集的准确率也能达到90%以上。之后我们会定义多层神经网络或定义不同模型的卷积神经网络如:AlexNet、VGG等,就能大大提高测试集的准确率。

【参考】:
     1. 城市数据团课程《AI工程师》计算机视觉方向
     2. deeplearning.ai 吴恩达《深度学习工程师》
     3. 《机器学习》作者:周志华
     4. 《深度学习》作者:Ian Goodfellow


转载声明:
版权声明:非商用自由转载-保持署名-注明出处
署名 :mcyJacky
文章出处:https://blog.csdn.net/mcyJacky

猜你喜欢

转载自blog.csdn.net/mcyJacky/article/details/86443206