Tensorflow 学习笔记:Mnist 手写训练集调试,准确率变为0.1的解决办法及如何将准确率调高到98%以上

提高神经网络准确率的尝试

首先是增加隐藏层数,这样有助于提高结果的非线性性,我这里加入了一个100个神经元的中间层,训练目标是将准确率提高到95%以上,不高的要求,事实证明加一层就足够了。

#构建神经网络784-100-10
w_L1=tf.Variable(tf.zeros([784,100]))
b_L1=tf.Variable(tf.zeros([1,100]))
wx_plus_b_L1=tf.matmul(x,w_L1)+b_L1
l1=tf.nn.relu(wx_plus_b_L1)


#输出层
w_L2=tf.Variable(tf.zeros([100,10]))
b_L2=tf.Variable(tf.zeros([10]))
prediction=tf.nn.softmax(tf.matmul(l1,w_L2)+b_L2)

但这样添加后,不管如何调激活函数还是训练次数,准确率都是0.1135.
原因出在第一层权重设置上,如果改为正太分布的随机值,那么问题就解决了。

改为正太分布的权重:

w_L1=tf.Variable(tf.truncated_normal(([784,100]),stddev=0.1))

训练20次准确度变化:
Iter20Test Accuracy 0.9314
训练30次准确度变化:
Iter30Test Accuracy0.9399
如果继续增加训练次数,准确率应该可以达到95%

提高准确率:调小每次训练的批次大小

如果将batch_size从100调到50,准确率会有明显的上升。
batch_size=50时训练30次的准确率。
Iter30Test Accuracy 0.9567

如果将把batch_size调大呢?
batch_size=200
Iter30Test Accuracy0.9236
可以看到准确率下降了,所以batch_size越小,准确率越高,这可能和优化的次数有关,每次批量处理数据越小,循环完所有数据需要迭代的次数就越多,优化的效果就越好

提高准确率:使用交叉熵

在激活函数为sigmo函数时,使用交叉熵可以获得更好的训练效果,在loss函数中使用交叉熵函数的方法为:

tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=prediction)

这里需要注意一下,在传入logits参数时,prediction值为:

prediction=tf.nn.softmax(tf.matmul(l1,w_L2)+b_L2)

如果以求完softmax的值作为传入值,训练30次后准确率为:

扫描二维码关注公众号,回复: 11994279 查看本文章

Iter30Test Accuracy0.9642

但如果改为不求softmax,直接传入计算结果值,效果怎么样呢?

prediction=tf.matmul(l1,w_L2)+b_L2

Iter0Test Accuracy0.9336
起步准确率 达到0.93.
训练10个周期后
Iter9Test Accuracy 0.9747

准确率直接提高到0.97,最后准确率保持在0.97左右震荡。

因此,对于交叉熵,logits的传入值应该为不处理softmax的效果最好,这里有人解释是因为在交叉熵中会对logits求一次softmax函数。结合在不使用softmax对L1层数据处理时训练速度更快,后者的解释应该是可靠的。

更改优化器及学习率

首先,随机梯度下降法的收敛速度比较慢,要达到最低点需要迭代很多次,并且对于马鞍面问题其无法逃离马鞍低点平面,这里推荐几个优化器。 Adadelta, Adagrad, 及NAG优化器。
其中 Adadelta, Adagrad收敛速度最快,NAG是优化后的动量优化器,速度也可以。
在TensorFlow中,三者的方法可以很方便的调出。

train_step=tf.train.AdadeltaOptimizer(1e-3).minimize(loss)
train_step=tf.train.AdagradOptimizer(1e-3).minimize(loss)
train_step=tf.train.AdamOptimizer(1e-3).minimize(loss)

在使用了AdamOptimizer,学习率设置为初始0.001,每迭代一次,学习率乘以0.95以后,训练30次,准确率达到98%以上。

lr=tf.Variable(0.001,dtype=tf.float32)

后半段代码

train_step=tf.train.AdamOptimizer(lr).minimize(loss)
    #初始变量

init=tf.global_variables_initializer()

#求准确率
with tf.name_scope('accuracy'):
    with tf.name_scope('correct_prediction'):
        correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))
    with tf.name_scope('accuracy'):
        accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
        tf.summary.scalar('accuracy',accuracy)
        
#合并所有指标


#训练
with tf.Session() as sess:
    sess.run(init)
    for epoch in range(51):
        sess.run(tf.assign(lr,0.001*0.95**(epoch)))
        for batch in range(n_batch):
            batch_xs,batch_ys=mnist.train.next_batch(batch_size)
            sess.run(train_step,feed_dict={x:batch_xs,y:batch_ys})
        learning_rate=sess.run(lr)
        test_acc=sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
        print('Iter'+str(epoch)+'Test Accuracy'+str(test_acc)+'Learning rate='+str(learning_rate))

小结

将单层神经元数量增大(比如1000),或者增加中间层,可以提高准确率,但这样想要提高到98%以上(注意对权重及偏置值的初始化进行修改,这里用到的是截断的正太分布),还必须对loss函数及优化器进行调整,loss函数修改为交叉熵有利于提高准确率,最后通过使用更好的优化器结合自适应的学习率(在迭代后期不断减小的学习率),可以使损失函数尽量落在最低点而不冲出最优点而造成震荡。

猜你喜欢

转载自blog.csdn.net/hu_hao/article/details/95535859
今日推荐