tensorflow交叉熵理解

cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))

-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])  先算出来的结果和真实的结果按照每一个位相乘,得到一个10行的向量,然后对这个向量求和。

reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) 因为一组(batch)可能包括100个输入样本,所以y是一个100*10的矩阵,上一步先按照行相乘求和后,得到一个100维的列向量,然后在对这个向量求求平均值,得到损失,然后根据这个损失的求和求平均的公式,对参数进行反向传播计算。

猜你喜欢

转载自blog.csdn.net/zpnkwxp2011/article/details/78800050