信息量,熵,条件熵,相对熵,交叉熵,信息增益,互信息,信息增益比

接着信息量与熵,我们再来看看条件熵相对熵交叉熵信息增益互信息信息增益比。

1 信息量

2 熵

3 条件熵

4 相对熵(KL散度)

详解链接https://blog.csdn.net/u013066730/article/details/112988733

5 交叉熵

6 信息增益

西瓜书的第四章链接:https://pan.baidu.com/s/16xMD5CvTzO4TurNJ602Bmw 提取码:ydvv 
推导公式:https://github.com/Sophia-11/Machine-Learning-Notes/blob/master/README.md

扫描二维码关注公众号,回复: 12661243 查看本文章

7 互信息

8 信息增益比

既然信息增益已经能够表明某一特征对于总体的信息的贡献,为什么还需要使用信息增益比呢?

具体请参照西瓜书4.2章节:https://pan.baidu.com/s/16xMD5CvTzO4TurNJ602Bmw 提取码:ydvv

简单来讲,就是当一个特征可能的取值数目非常多的时候,该类特征提供的信息往往越大,毕竟最终结果依据被分的更细了,获取的信息也更丰富了。但这并不代表就一定有效,这很容易导致他的泛化性能很差。

表示特征本身含有的熵。


本篇博客主要参考自: 
《信息量、熵、最大熵、联合熵、条件熵、相对熵、互信息》 
《交叉熵(Cross-Entropy) 》 
《最大熵模型中的数学推导》 
《我们为什么需要信息增益比,而不是信息增益? 》

https://blog.csdn.net/xg123321123/article/details/52864830#comments

https://zhuanlan.zhihu.com/p/74075915

猜你喜欢

转载自blog.csdn.net/u013066730/article/details/113183355