机器学习中的基本问题——log损失与交叉熵的等价性

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/google19890102/article/details/79496256

1、log损失

log损失的基本形式为:

l o g ( 1 + e x p ( m ) )

其中, m = y y ^ y { 1 , 1 }

对上述的公式改写:

1 m i = 1 m l o g ( 1 + e x p ( y ( i ) y ( i ) ^ ) )

已知:
σ ( x ) = 1 1 + e x p ( x )

σ ( x ) = 1 σ ( x )

1 m i = 1 m l o g ( σ ( y ( i ) y ( i ) ^ ) 1 ) = 1 m i = 1 m l o g σ ( y ( i ) y ( i ) ^ )

2、交叉熵

交叉熵的一般形式为:

H ( y , y ^ ) = y l o g σ ( y ^ )

对于 m 个样本,则交叉熵为:

H ( y , y ^ ) = 1 m i = 1 m [ I { y ( i ) = 1 } l o g σ ( y ^ ) + I { y ( i ) = 1 } l o g ( 1 σ ( y ^ ) ) ]

H ( y , y ^ ) = 1 m i = 1 m [ I { y ( i ) = 1 } l o g σ ( y ^ ) + I { y ( i ) = 1 } l o g σ ( y ^ ) ]

由于 y ( i ) { 1 , 1 } ,且必定为其一。
I { y ( i ) = k } = { 0  if  y ( i ) k 1  if  y ( i ) = k

H ( y , y ^ ) = 1 m i = 1 m l o g σ ( y ( i ) y ( i ) ^ )

我的博客即将搬运同步至腾讯云+社区,邀请大家一同入驻:https://cloud.tencent.com/developer/support-plan

猜你喜欢

转载自blog.csdn.net/google19890102/article/details/79496256
今日推荐