《深度学习》 第3章 概率与信息论

《深度学习》 第3章 概率与信息论

概率不仅提供量化不确定性的方法,也提供了用于导出新的不确定性声明的公理

为什么要使用概率

不确定性有三种来源:

  1. 被建模系统内在的随机性
  2. 不完全观测
  3. 不完全建模

频率派概率:概率直接与事件发生的频率相联系
贝叶斯概率:概率涉及到确定性水平

随机变量

概率分布

离散型变量和概率质量函数

i P ( x = x i ) = i 1 k = 1 \sum_iP(\mathrm x = x_i) = \sum_i\frac1k = 1

连续型变量和概率模型函数

p ( x ) d x = 1 \int p(x) dx = 1

边缘概率

x x , P ( x = x ) = y P ( x = x , y = y ) \forall x \in \mathrm x,P(\mathrm x = x) = \sum_yP(\mathrm x = x, \mathrm y = y)
p ( x ) = p ( x , y ) d y p(x) = \int p(x, y)dy

条件概率

P ( y = y x = x ) = P ( y = y , x = x ) P ( x = x ) P(\mathrm y = y | \mathrm x = x) = \frac {P(\mathrm y = y, \mathrm x = x)} {P(\mathrm x = x)}
不要把条件概率干预查询相混淆

条件概率的链式法则

P ( x ( 1 ) , , x ( n ) ) = P ( x ( 1 ) ) i = 2 n P ( x ( 1 ) , , x ( i 1 ) ) P(\mathrm x^{(1)},\ldots,\mathrm x^{(n)}) = P(\mathrm x^{(1)})\prod_{i=2}^nP\left(\mathrm x^{(1)},\ldots,\mathrm x^{(i-1)}\right)

独立性和条件独立性

x x , y y , p ( x = x , y = y ) = p ( x = x ) p ( y = y ) \forall x \in \mathrm x, y \in \mathrm y, p(\mathrm x = x, \mathrm y = y) = p(\mathrm x = x)p(\mathrm y = y)
x x , y y , z z , p ( x = x , y = y z = z ) = p ( x = x z = z ) p ( y = y z = z ) \forall x \in \mathrm x, y \in \mathrm y, z \in \mathrm z, p(\mathrm x = x, \mathrm y = y | \mathrm z = z) = p(\mathrm x = x| \mathrm z = z)p(\mathrm y = y | \mathrm z = z)

期望、方差和协方差

协方差给出了两个变量线性相关性的强度以及变量的尺度
C o v ( f ( x ) , g ( y ) ) = E [ ( f ( x ) E [ f ( x ) ] ) ( g ( y ) E [ g ( y ) ] ) ] \mathrm{Cov}(f(x), g(y)) = \mathbb E[(f(x) - \mathbb E[f(x)])(g(y) - \mathbb E[g(y)])]

相关系数将变量贡献归一化,只衡量变量的相关性。

独立性零协方差要求更严,因为独立性还排除了非线性的关系

常见概率分布

Bernoulli分布

Multinoulli分布

高斯分布

N ( x ; μ , σ 2 ) = 1 2 π σ 2 e x p ( 1 2 σ 2 ( x μ ) 2 ) \mathcal N(x;\mu, \sigma^2) = \sqrt{\frac {1}{2\pi\sigma^2}} \mathrm{exp} \left( -\frac{1}{2\sigma^2}(x - \mu)^2 \right)

正态分布是比较好的默认选择,原因有二:

  1. 很多分布的真实情况接近正态分布
  2. 在具有相同方差的所有可能的概率分布中,正态分布在实数上具有最大的不确定性

指数分布和Laplace分布

p ( x ; λ ) = λ 1 x 0 e x p ( λ x ) p(x;\lambda) = \lambda 1_{x \geq 0} \mathrm {exp}(-\lambda x)
L a p l a c e ( x ; μ , γ ) = 1 2 γ e x p ( x μ γ ) \mathrm{Laplace}(x;\mu,\gamma) = \frac{1}{2\gamma} \mathrm{exp}\left( -\frac{|x - \mu|}{\gamma} \right)

Dirac分布和经验分布

p ( x ) = δ ( x μ ) p(x) = \delta(x - \mu)
p ^ ( x ) = 1 m i = 1 m δ ( x x ( i ) ) \hat p(x) = \frac 1m \sum_{i=1}^{m}\delta(x-x^{(i)})
可以认为从训练集上得到的经验分布指明了采样来源的分布,其是训练数据的似然最大的那个概率密度函数

分布的混合

混合模型是组合简单概率分布来生成更丰富的分布的一种简单策略。

一种非常强大且常见的混合模型是高斯混合模型,其是概率密度的万能近似器

常用函数的有用性质

σ ( x ) = 1 1 + e x p ( x ) \sigma(x) = \frac {1}{1 + \mathrm{exp}(-x)}
ζ ( x ) = l o g ( 1 + e x p ( x ) ) \zeta(x) = \mathrm{log}(1 + \mathrm{exp}(x))
x + = m a x ( 0 , x ) x^+ = \mathrm{max}(0, x)

下面一些性质有用:
σ ( x ) = e x p ( x ) e x p ( x ) + e x p ( 0 ) \sigma(x) = \frac{\mathrm{exp}(x)}{\mathrm{exp}(x) + \mathrm{exp}(0)}
d d x σ ( x ) = σ ( x ) ( 1 σ ( x ) ) \frac{d}{dx}\sigma(x) = \sigma(x)(1-\sigma(x))
1 σ ( x ) = σ ( x ) 1-\sigma(x) = \sigma(-x)
l o g σ ( x ) = ζ ( x ) \mathrm{log}\sigma(x) = -\zeta(-x)
d d x ζ ( x ) = σ ( x ) \frac{d}{dx}\zeta(x) = \sigma(x)
x ( 0 , 1 ) , σ 1 ( x ) = l o g ( x 1 x ) \forall x \in (0,1), \sigma^{-1}(x) = \mathrm{log}\left(\frac{x}{1-x} \right)
x > 0 , ζ 1 ( x ) = l o g ( e x p ( x ) 1 ) \forall x > 0, \zeta^{-1}(x) = \mathrm{log}(\mathrm{exp}(x)-1)
ζ ( x ) = x σ ( y ) d y \zeta(x) = \int_{-\infty}^x\sigma(y)dy
ζ ( x ) ζ ( x ) = x \zeta(x) - \zeta(-x) = x

贝叶斯规则

P ( x y ) = P ( x ) P ( y x ) P ( y ) P(\mathrm x | \mathrm y) = \frac{P(\mathrm x)P(\mathrm y |\mathrm x)}{P(\mathrm y)}

连续变量型的技术细节

p y ( g ( x ) ) d y = p x ( x ) d x |p_y(g(x))dy| = |p_x(x)dx|

信息论

对一个信号包含信息的多少进行量化

三个性质:

  • 非常可能发生的事件信息量要比较少
  • 较不可能发生的事件具有更高的信息量
  • 独立事件应具有增量的信息

自信息
I ( x ) = l o g P ( x ) I(x) = -\mathrm{log}P(x)

一奈特是以 1 / e 1/e 的概率观测到一个事件时获得的信息量

香农熵
H ( x ) = E x P [ I ( x ) ] = E x P [ l o g P ( x ) ] H(\mathrm x) = \mathbb E_{\mathrm x \sim P}[I(x)] = -\mathbb E_{\mathrm x \sim P}[\mathrm{log}P(x)]
一个分布的香农熵是指遵循这个分布的事件所产生的期望信息总量

KL散度衡量两个独立的概率分布的差异:
D K L ( P Q ) = E x P [ l o g P ( x ) Q ( x ) ] = E x P [ l o g P ( x ) l o g Q ( x ) ] D_{\mathrm{KL}}(P||Q) = \mathbb E_{\mathrm x \sim P} \left[ \mathrm{log} \frac{P(x)}{Q(x)} \right] = \mathbb E_{\mathrm x \sim P}[\mathrm{log}P(x)-\mathrm{log}Q(x)]

在离散型变量的情况下,KL 散度衡量的是,当我们使用一种被设计成能够使得概率分布 Q Q 产生的消息的长度最小的编码,发送包含由概率分布 P P 产生的符号的消息时,所需要的额外信息量。或者说是数据的原始分布 P P 和近似分布 Q Q 之间的对数差值的期望。

交叉熵:
H ( P , Q ) = H ( P ) + D K L ( P Q ) = E x P l o g Q ( x ) H(P,Q) = H(P) + D_{\mathrm{KL}}(P||Q) = -\mathbb E_{\mathrm x \sim P}\mathrm{log}Q(x)

针对 Q Q 最小化交叉熵等价于最小化KL散度,因为 Q Q 并不参与被省略的那一项

结构化概率模型

有向模型:
p ( x ) = i p ( x i P a G ( x i ) ) p(\mathrm x) = \prod_ip(\mathrm x_i|Pa_\mathcal G(\mathrm x_i))
无向模型:
p ( x ) = 1 Z i ϕ ( i ) ( C ( i ) ) p(\mathrm x) = \frac{1}{Z}\prod_i\phi^{(i)}(\mathcal C^{(i)})
这些图模型表示的分解仅仅是描述概率分布的一种语言

猜你喜欢

转载自blog.csdn.net/Tifa_Best/article/details/83383457
今日推荐