tf.nn.sparse_softmax_cross_entropy_with_logits()函数的用法

tf.nn.sparse_softmax_cross_entropy_with_logits(labels,logits)
该函数先计算logits的softmax值,再计算softmax与label的cross_entropy。
值得注意的是,logits使用的是向量的格式,如[.1,.5,.3],而label使用的是标签(非one-hot)格式,比如为2,即是[2],而不是[0,0,1]。

猜你喜欢

转载自blog.csdn.net/a13602955218/article/details/80986860