tensorflow---调用tf.softmax_cross_entropy_with_logits函数出错解决

解决:

原来这个函数,不能按以前的方式进行调用了,只能使用命名参数的方式来调用。原来是这样的:

tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y, y_))

因此修改需要成这样:

tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=y_))
 

转载:https://blog.csdn.net/caimouse/article/details/61208940

注:后来我发现这个函数里面是包括来-tf.reduce_sum的,所以函数直接调用即可用,tf.nn.softmax_cross_entropy_with_logits(logits = logits,label = y_)。如果加上-tf.reduce_sum就会出错,准确率一直上不去

猜你喜欢

转载自blog.csdn.net/zxyhhjs2017/article/details/82426303