PyTorch validation loss 增大,为什么 accuracy 也在增大?

loss和accuracy之间并不是一定反相关
有时候我们会在plot的图上发现损失增大了,但精度却也在提升,这是为什么呢?
我们经常计算的损失其实是逐点(pointwise)损失值的平均值,但影响精度的是损失值的分布,而不是平均值,因为精度是模型预测的类别概率的二进制阈值。
即使从平均损失中无法看出,但模型也仍然可能在改进。

Ref

损失和精度的联系(损失增大为什么精度也提升?)

猜你喜欢

转载自blog.csdn.net/qq_35762060/article/details/110545612
今日推荐