神经网络笔记 - 交叉熵续

为什么选择交叉熵(Why Cross-Entropy)

为了解决学习速度下降的问题,我们希望

Cwj=xj(ay)

Cb=(ay)

如上文所述, 当代码函数为 C 时:

Cb=Caδ(z)

因为 δ 函数的性质:
δ(z)=(1δ(z))δ(z)=a(1a)

于是:
Cb=Caa(1a)

如果要符合期望, 则下式必须成立:
Ca=aya(1a)

则反推可以得到
C=[ylna+(1y)ln(1a)]+constant

这是一个样本的代价函数, 多个样本的话, 自然
C=1nx[ylna+(1y)ln(1a)]+constant

Reference

http://neuralnetworksanddeeplearning.com/

猜你喜欢

转载自blog.csdn.net/volvet/article/details/73028525