逻辑回归损失函数

二分类

众所周知,二分类问题的损失函数为:

其中y代表标签值(0,1);h(θ,x)代表通过假设假设函数(sigmoid 函数)计算出的函数值(概率),sigmoid 函数的取值区间为(0,1)

â对æ°å½æ°âçå¾çæç´¢ç»æ

当标签值为1时,h(θ,x)的值为预测y为1的概率,这个值越靠近0,logh(θ,x)的值就会越大,从而对loss值的惩罚也就越大;反之当标签值为0时,1-h(θ,x)的值为预测y为0的概率,这个值越靠近0,log(1-h(θ,x))的值就会越大。

二分类问题的决策函数为:

 

多分类(softmax)

二分类问题也可以看做是多分类问题的特例,由此,K分类问题的loss函数表达式也可以延伸为:

多分类问题(softmax)的决策函数为:

(与二分类函数的决策函数比较,二分类函数的决策函数依然可以视为K分类问题的特例)

总结

由此不难看出,在keras里面activation选择sigmoid的时候,与之对应的loss为binary_crossentropy;同理,activation选择softmax的时候,与之对应的loss为categorical_crossentropy

参考资料

猜你喜欢

转载自blog.csdn.net/Lakers_KobeBryant/article/details/84796670