关于熵的种种, 这个熵就是那个熵呗

这个概念一直闹不明白,今天我就彻彻底底想清楚,嘿嘿
[熵]:
[信息熵]:
信息熵用来衡量信息量的大小
若不确定性越大,则信息量越大,熵越大
若不确定性越小,则信息量越小,熵越小
例子:
比如A班对B班,胜率一个为x,另一个为1-x,则信息熵为 -(xlogx + (1-x)log(1-x)),求导后容易证明x=1/2时取得最大,最大值为2,也就是说两者势均力敌时,不确定性最大,熵最大。
[经验熵]:
[相对熵]:相对熵可以用来衡量两个概率分布之间的差异
[条件熵]:
这里写图片描述

参考资料:
https://blog.csdn.net/u010041824/article/details/70224597
https://www.cnblogs.com/kyrieng/p/8694705.html
https://www.imooc.com/article/68820
https://blog.csdn.net/xierhacker/article/details/53463567

猜你喜欢

转载自blog.csdn.net/u014221266/article/details/81366269