一点对 KL 散度的理解【亟待解决】

在深度学习中经常用到的一个概念是 KL散度。之前对KL散度进行过一次理解,但后来随着利用次数的减少,开始忘却其具体的定义与物理意义,仅在印象中记得是“描述两个分布的相似度的度量”。这个描述并不准确。为了便于以后查找回顾,这里再次把KL散度的相关理解整理下来。

KL 散度,全称 Kullback-Leible divergence, 是用于度量一个拟合分布Q与标准分布P的差异的一种方法,它是非对称的,这意味着DL(P||Q) \neq DL(Q||P). 其中DL(P||Q)可以理解为Q分布与P分布的差异,或者信息损失。

介绍KL散度之前,先介绍信息熵的概念

 

参考资料

一点对 KL 散度的理解_wzg2016的博客-CSDN博客_kl散度的理解

KL散度的含义与性质_麒麟437的博客-CSDN博客_kl散度

猜你喜欢

转载自blog.csdn.net/weixin_43332715/article/details/124906879
今日推荐