tf.train.GradientDescentOptimizer 梯度下降法
标准梯度下降法:先计算所有样本汇总误差,然后根据总误差来更新全值(时间长,值更加可靠)
随机梯度下降法:随机抽取一个样本来计算误差,然后更新权值(时间短,值相对不可靠)
批量梯度下降法:从总样本中选取一个批次,然后计算这个batch的总误差,根据总误差来更新权值(折中)
tf.train.GradientDescentOptimizer 梯度下降法
标准梯度下降法:先计算所有样本汇总误差,然后根据总误差来更新全值(时间长,值更加可靠)
随机梯度下降法:随机抽取一个样本来计算误差,然后更新权值(时间短,值相对不可靠)
批量梯度下降法:从总样本中选取一个批次,然后计算这个batch的总误差,根据总误差来更新权值(折中)