【高效炼丹-筑基期】当深度学习遇上概率分布,你不能不知道的神奇度量方法:KL散度!

什么是KL散度

KL散度(Kullback-Leibler divergence),也称为相对熵,是一种用于衡量两个概率分布之间差异的度量方法。它可以描述两个分布之间的距离,用于衡量模型预测结果与真实分布之间的差异,是深度学习中常用的度量方法之一。

KL散度的应用场景

KL散度在深度学习中有着广泛的应用,常用于衡量模型预测分布与真实分布之间的差异,指导模型优化;也可以用于聚类分析等任务,帮助我们理解不同数据之间的差异。在实际应用中,KL散度常与交叉熵损失一起使用,用于衡量分类模型的预测结果与真实类别之间的差异。

KL散度的计算公式

KL散度的计算公式如下:

D K L ( P ∣ ∣ Q ) = ∑ i P ( i ) log ⁡ P ( i ) Q ( i ) D_{KL}(P||Q) = \sum_i P(i) \log \frac{P(i)}{Q(i)} DKL(P∣∣Q)=iP(i)logQ(i)P(i)

其中, P P P Q Q Q分别表示两个概率分布,

猜你喜欢

转载自blog.csdn.net/luxu1220/article/details/130584120
今日推荐