解剖交叉熵损失函数

交叉熵损失函数(Cross Entropy loss function),主要为了度量两个概率之间的差异性

信息量

香农(shannon)曰:信息是用来消除随机不确定性的。

“太阳从东边升起”,这条信息并没有减少不确定性,因为太阳肯定是从东边升起的,这是一句废话,信息量为0。
”2018年中国队成功进入世界杯“,从直觉上来看,这句话具有很大的信息量。因为中国队进入世界杯的不确定性因素很大,而这句话消除了进入世界杯的不确定性,所以按照定义,这句话的信息量很大。

信息发生概率越大,不确定性越小,信息量越小。信息发生概率越小,不确定性越大,信息量越大。概率越小,

即 :信息量的大小与信息发生的概率成反比。

设某事件发生的概率是P(x), 信息量I(x)为

                                                                            I(x)=-\ln (P(x))

信息熵 information entropy

信息熵表示所有信息量的期望,X是离散型随机变量

即:                                                     H(X)=-\sum_{i=1}^{n} P(x_i)\ln(P(x_i)) \qquad (X=x_1,x_2,x_3...x_n)

   

使用明天天气的概率计算信息熵。 

扫描二维码关注公众号,回复: 10792026 查看本文章

H(X)= -(0.5*\ln0.5+0.2*\ln0.2+0.3*\ln0.3)

相对熵 relative entropy (KL散度  kullback-leibler divergence)

对于同一个随机变量X  有两个独立的概率分布P(x)和Q(x),  用KL散度计算它们之间的差异。

D_{kl}(p||q)= \sum_{i=1}^{n}p(x_i)\ln({\frac{p(x_i)}{q(x_i)}})

e.g.

在机器学习中,经常用P(x)表示真实概率,Q(x)表示预测概率。在一个三分类任务中,x1,x2和x3分别代表 猫 狗  和 牛。

一张图片的真实分布P(X)=[1,0,0]  即是一张猫的图片。  预测的分布Q(X)=[0.7,0.2,0.1]

KL散度    D_{kl}(p||q)= p(x_1)\ln({\frac{p(x_1)}{q(x_1)}})+p(x_2)\ln({\frac{p(x_2)}{q(x_2)}})+p(x_3)\ln({\frac{p(x_3)}{q(x_3)}}) =1*\ln(\frac{1}{0.7})

KL散度越小,表示Q(x)和P(x)越接近,即预测的越准。

交叉熵 Cross Entropy

首先 给出公式   交叉熵 =  信息熵+相对熵

H(p,q)=H(p(x))+D_{kl}(p||q)=-\sum_{i=1}^{n}p(x_i)\ln(p(x_i)) +\sum_{i=1}^{n}p(x_i)\ln({\frac{p(x_i)}{q(x_i)}})\\ H(p,q)=0-\sum_{i=1}^np(x_i)\ln(q(x_i))

在机器学习中,输入数据一般都有标签,即真实概率分布 P(x)已确定。

问:有相对熵表示两个概率分布的相似性,为什么还要用交叉熵?

答:因为交叉熵 等于相对熵加上一个常量(信息熵),也能反映两者相似性,而且比相对熵好算

交叉熵和KL散度越小,说明模型预测效果越好。

应用:

分类问题中,常用交叉熵 cross entropy 作为loss函数

发布了184 篇原创文章 · 获赞 28 · 访问量 6万+

猜你喜欢

转载自blog.csdn.net/Bluenapa/article/details/105256024