如何从TensorFlow的mnist数据集导出手写体数字图片

版权声明:本文为博主原创文章,如需转载请注明出处。因博主水平有限,如有疏忽遗漏,敬请指出。 https://blog.csdn.net/ShadowN1ght/article/details/78027689

在TensorFlow的官方入门课程中,多次用到mnist数据集。

mnist数据集是一个数字手写体图片库,但它的存储格式并非常见的图片格式,所有的图片都集中保存在四个扩展名为idx3-ubyte的二进制文件。

如果我们想要知道大名鼎鼎的mnist手写体数字都长什么样子,就需要从mnist数据集中导出手写体数字图片。了解这些手写体的总体形状,也有助于加深我们对TensorFlow入门课程的理解。

下面先给出通过TensorFlow api接口导出mnist手写体数字图片的python代码,再对代码进行分析。代码在win7下测试通过,linux环境也可以参考本处代码。

(非常良心的注释和打印有木有)

#!/usr/bin/python3.5
# -*- coding: utf-8 -*-

import os
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

from PIL import Image

# 声明图片宽高
rows = 28
cols = 28

# 要提取的图片数量
images_to_extract = 8000

# 当前路径下的保存目录
save_dir = "./mnist_digits_images"

# 读入mnist数据
mnist = input_data.read_data_sets("MNIST_data/", one_hot=False)

# 创建会话
sess = tf.Session()

# 获取图片总数
shape = sess.run(tf.shape(mnist.train.images))
images_count = shape[0]
pixels_per_image = shape[1]

# 获取标签总数
shape = sess.run(tf.shape(mnist.train.labels))
labels_count = shape[0]

# mnist.train.labels是一个二维张量,为便于后续生成数字图片目录名,有必要一维化(后来发现只要把数据集的one_hot属性设为False,mnist.train.labels本身就是一维)
#labels = sess.run(tf.argmax(mnist.train.labels, 1))
labels = mnist.train.labels

# 检查数据集是否符合预期格式
if (images_count == labels_count) and (shape.size == 1):
    print ("数据集总共包含 %s 张图片,和 %s 个标签" % (images_count, labels_count))
    print ("每张图片包含 %s 个像素" % (pixels_per_image))
    print ("数据类型:%s" % (mnist.train.images.dtype))

    # mnist图像数据的数值范围是[0,1],需要扩展到[0,255],以便于人眼观看
    if mnist.train.images.dtype == "float32":
        print ("准备将数据类型从[0,1]转为binary[0,255]...")
        for i in range(0,images_to_extract):
            for n in range(pixels_per_image):
                if mnist.train.images[i][n] != 0:
                    mnist.train.images[i][n] = 255
            # 由于数据集图片数量庞大,转换可能要花不少时间,有必要打印转换进度
            if ((i+1)%50) == 0:
                print ("图像浮点数值扩展进度:已转换 %s 张,共需转换 %s 张" % (i+1, images_to_extract))

    # 创建数字图片的保存目录
    for i in range(10):
        dir = "%s/%s/" % (save_dir,i)
        if not os.path.exists(dir):
            print ("目录 ""%s"" 不存在!自动创建该目录..." % dir)
            os.makedirs(dir)

    # 通过python图片处理库,生成图片
    indices = [0 for x in range(0, 10)]
    for i in range(0,images_to_extract):
        img = Image.new("L",(cols,rows))
        for m in range(rows):
            for n in range(cols):
                img.putpixel((n,m), int(mnist.train.images[i][n+m*cols]))
        # 根据图片所代表的数字label生成对应的保存路径
        digit = labels[i]
        path = "%s/%s/%s.bmp" % (save_dir, labels[i], indices[digit])
        indices[digit] += 1
        img.save(path)
        # 由于数据集图片数量庞大,保存过程可能要花不少时间,有必要打印保存进度
        if ((i+1)%50) == 0:
            print ("图片保存进度:已保存 %s 张,共需保存 %s 张" % (i+1, images_to_extract))
    
else:
    print ("图片数量和标签数量不一致!")

上述代码的实现思路如下:

1.读入mnist手写体数据;

2.把数据的值从[0,1]浮点范围转化为黑白格式(背景为0-黑色,前景为255-白色);

3.根据mnist.train.labels的内容,生成数字索引,也就是建立每一张图片和其所代表数字的关联,由此创建对应的保存目录;

4.循环遍历mnist.train.images,把每张图片的像素数据赋值给python图片处理库PIL的Image类实例,再调用Image类的save方法把图片保存在第3步骤中创建的对应目录。

在运行上述代码之前,你需要确保本地已经安装python的图片处理库PIL,pip安装命令如下:

pip3 install Pillow

或 pip install Pillow,取决于你的pip版本。

上述python代码运行后,在当前目录下会生成mnist_digits_images目录,在该目录下,可以看到如下内容:

可以看到,我们成功地生成了黑底白字的数字图片。

如果仔细观察这些图片,会看到一些肉眼也难以分辨的数字,譬如:


上面这几个数字是2。想不到吧?

下面这两个是5(看起来更像6):


这个是7:(7长这样?有句MMP不知当讲不当讲)


猜猜下面这个是什么:

这是大写的L?不是。

有点像1,是1吗?也不是。

倒立拉粑的7?sorry,又猜错了。

实话告诉您,它是2!一开始我也是不相信的,知道真相的那一刻我下巴差点掉下来!


这些手写图片,一般人用肉眼观察,识别率能达到98%就不错了,但是通过TensorFlow搭建的卷积神经网络识别率可以达到99%,非常地神奇!

猜你喜欢

转载自blog.csdn.net/ShadowN1ght/article/details/78027689
今日推荐