softmax交叉熵为什么要取-log

                                                              softmax交叉熵为什么要取"-log"

#######################################################################################

如图:-log是递减函数,对应着 错误越大包含信息越多,越正确包含信息越少,所以给错的比例越大。

而softmax之后,全部在【0,1】之间,越接近1,比例接近0;越接近0,比例无限大。从而可以学习正确的东西。

猜你喜欢

转载自blog.csdn.net/LEILEI18A/article/details/101284481