项目二 CIFAR10与ImageNet图像识别(二)

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/Coulson_Zhao/article/details/83547325

2.使用tensorflow训练CIFAR10识别模型

2.1数据增强

    通过平移、旋转、翻转、裁剪、缩放、颜色变换等数据操作可以增加数据库的数量,同时也能大大提高模型的泛化能力,并且可以预防过拟合。在应用这个方法的时候,我们可以使用以下方法:

# 随机剪裁
distorted_image = tf.random_crop(reshaped_image, [height, width, 3])
# 随机翻转,50%水平翻转
distorted_image = tf.image.random_flip_left_right(distorted_image)
# 随机改变亮度对比度
distorted_image = tf.image.random_brightness(distorted_image,
                                               max_delta=63)
distorted_image = tf.image.random_contrast(distorted_image,
                                             lower=0.2, upper=1.8)

2.2CIFAR识别模型构建

    这一步,就在创建用于识别的神经网络,tensorflow给出的代码很好,没有什么可以修改的地方。原理即是两次的卷积网络加两次全连接转到softmax.

2.3一些小知识点

    1.tf.gfile.Exists(FLAGS.train_dir)是用来确定train_dir是否存在的命令

    2.tf.contrib.framework.get_or_create_global_step()用来生成系统运行步数(tensor结构)

    3.epoch是所有样本的数量,batch是训练一个step中所要用的样本的数量,而batch_size*global_step=epoch

    例如batch_size=16,epoch为1024,则经过64个step就完成一个epoch,则打乱epoch进行第二个epoch

    4.对于这一部分:

  with tf.control_dependencies([loss_averages_op]):
    opt = tf.train.GradientDescentOptimizer(lr)
    grads = opt.compute_gradients(total_loss)

  # Apply gradients.
  apply_gradient_op = opt.apply_gradients(grads, global_step=global_step)

    则是要自己处理一下计算完成的梯度,并之后赋值给variable

猜你喜欢

转载自blog.csdn.net/Coulson_Zhao/article/details/83547325