【计算机科学与技术】信息论笔记(1):熵、相对熵与互信息

20200728本篇是学习信息论的入门笔记,希望能与各位分享进步!这是第一章:熵、相对熵与互信息~

1. 熵、相对熵与互信息

1.1 绪论与概述

  • 香农(C.E.Shannon) 于1948年发表论文 “通信的数学理论” 奠定了信息论的基础。

  • 香农第一定理(无失真信源编码定理):给出编码极限。

  • 香农第二定理(有噪信道编码定理):传输速率小于信道容量,则误码率可以任意小。

  • 香农第三定理(保失真度准则下的有失真信源编码定理):给定失真度,只要码字足够长,就可以使编码的失真度小于给定失真度。

1.2 熵

  • 的定义:

H ( X ) = H ( p 1 , p 2 , , p K ) = n = 1 K p n log p n H(X)=H\left(p_{1}, p_{2}, \cdots, p_{K}\right)=-\sum_{n=1}^{K} p_{n} \log p_{n}

  • 一元信源模型

[ X p ( x ) ] = [ a 1 a 2 a K p ( a 1 ) p ( a 2 ) p ( a K ) ] \left[\begin{array}{c}X \\ p(x)\end{array}\right]=\left[\begin{array}{cccc}a_{1} & a_{2} & \cdots & a_{K} \\ p\left(a_{1}\right) & p\left(a_{2}\right) & \cdots & p\left(a_{K}\right)\end{array}\right]

0 p n 1 0 \leq p_n \leq 1 n = 1 K p n = 1 \sum_{n=1}^K p_n = 1 。若 X p ( x ) X\sim p(x) ,则随机变量 g ( X ) g(X) 的期望为 E [ g ( x ) ] = g ( x ) p ( x ) E[g(x)]=\sum g(x)p(x) 。随机变量 X X 的熵可看为随机变量 l o g ( 1 / p ( X ) ) log(1/p(X)) 的数学期望,其中 p ( x ) p(x) X X 的概率密度函数。

  • 熵函数应符合下面三条公理:(1)对称性:交换下标不影响熵值。(2)最大值:等概分布熵值最大。(3)若 p K = p 11 + . . . + p 1 i p_K = p_{11} + ... + p_{1i} 则两个分布有如下关系:

H ( p 1 , p 2 , , p K 1 , p 11 , p 12 , , p 1 l ) = H ( p 1 , p 2 , , p k ) + p k H ( p 11 p K , p 12 p K , , p 1 i p K ) H\left(p_{1}, p_{2}, \cdots, p_{K-1}, p_{11}, p_{12}, \cdots, p_{1 l}\right)=H\left(p_{1}, p_{2}, \cdots, p_{k}\right)+p_{k} H\left(\frac{p_{11}}{p_{K}}, \frac{p_{12}}{p_{K}}, \cdots, \frac{p_{1 i}}{p_{K}}\right)

  • 熵的含义:(1)平均意义:熵是整个集合的统计特性。(2)信息熵: H ( X ) H(X) 表示每个消息提供的平均信息量。(3)随机性:信息熵 H ( X ) H(X) 表征了变量X的随机性。

  • 熵的链式法则:
    H ( X 1 , X 2 , , X n ) = i = 1 n H ( X i X i 1 , , X 1 ) H\left(X_{1}, X_{2}, \cdots, X_{n}\right)=\sum_{i=1}^{n} H\left(X_{i} \mid X_{i-1}, \cdots, X_{1}\right)

1.3 联合熵

  • 二元信源模型
    [ X Y p ( X Y ) ] = [ a 1 b 1 a 1 b 2 a 1 b 3 a k b J p ( a 1 , b 1 ) p ( a 1 , b 2 ) p ( a 1 , b 3 ) p ( a K , b J ) ] \left[\begin{array}{c}X Y \\ p(X Y)\end{array}\right]=\left[\begin{array}{cccc}a_{1} b_{1} & a_{1} b_{2} & a_{1} b_{3} & \ldots & a_{k} b_{J} \\ p\left(a_{1}, b_{1}\right) & p\left(a_{1}, b_{2}\right) & p\left(a_{1}, b_{3}\right) & \ldots & p\left(a_{K}, b_{J}\right)\end{array}\right]

其中 k = 1 K j = 1 J p ( a k , b j ) = 1 \sum_{k=1}^K \sum_{j=1}^J p (a_k,b_j) = 1

  • 联合熵的定义:
    H ( X , Y ) = k = 1 K j = 1 J p ( a k , b j ) log p ( a k , b j ) = E [ log p ( X , Y ) ] H(X, Y)=-\sum_{k=1}^{K} \sum_{j=1}^{J} p\left(a_{k}, b_{j}\right) \log p\left(a_{k}, b_{j}\right)=-E[\log p(X,Y)]

若独立,则联合熵等于单个随机变量熵之和;条件熵等于无条件熵(绝对熵)。

  • 有等式

H ( X , Y ) = H ( X ) + H ( Y X ) = H ( Y ) + H ( X Y ) H(X,Y) = H(X) + H(Y | X) =H(Y) + H(X | Y)

1.4 条件熵

  • 条件熵的定义:

H ( Y X ) = k = 1 K j = 1 J p ( a k , b j ) log p ( b j a k ) H(Y|X) = -\sum_{k=1}^K \sum_{j=1}^J p(a_k,b_j)\log p(b_j|a_k)

  • 条件熵链式法则:

H ( X , Y Z ) = H ( X Z ) + H ( Y X , Z ) H(X,Y|Z) = H(X|Z) + H(Y | X,Z)

  • 确定关系:若 X X Y Y 有确定的函数关系,且 X X 可以完全确定 Y Y (或 Y Y 完全确定 X X ),则 H ( Y X ) = H ( X Y ) = 0 H(Y|X) = H(X|Y) = 0

  • 条件熵不大于绝对熵是平均意义下的结论。

1.5 相对熵

  • 相对熵(Kullback熵) :两个随机分布之间距离的度量。
    D ( p q ) = k = 1 K p ( a k ) log p ( a k ) q ( a k ) D(p||q) = \sum_{k=1}^Kp(a_k)\log\frac{p(a_k)}{q(a_k)}

  • 条件相对熵:一对随机变量的两个联合分布之间的相对熵可以展开为相对熵和条件相对熵之和。

D ( p ( y x ) q ( y x ) ) = x p ( x ) y p ( y x ) log p ( y x ) q ( y x ) = E p ( x , y ) log p ( Y X ) q ( Y X ) D(p(y \mid x) \| q(y \mid x))=\sum_{x} p(x) \sum_{y} p(y \mid x) \log \frac{p(y \mid x)}{q(y \mid x)}=E_{p(x, y)} \log \frac{p(Y \mid X)}{q(Y \mid X)}

  • 相对熵的链式法则:
    D ( p ( x , y ) q ( x , y ) ) = D ( p ( x ) q ( x ) ) + D ( p ( y x ) q ( y x ) ) D(p(x, y) \| q(x, y))=D(p(x) \| q(x))+D(p(y \mid x) \| q(y \mid x))

1.6 互信息

  • 互信息的定义:
    I ( X ; Y ) = H ( X ) H ( X Y ) = H ( Y ) H ( Y X ) = I ( Y ; X ) I(X;Y) = H(X) - H(X|Y) = H(Y) - H(Y|X) = I(Y;X)
    也可以采用直接定义 X X Y Y 之间的互信息为
    I ( X ; Y ) = k = 1 K j = 1 J p ( a k , b j ) log p ( a k , b j ) p ( a k ) p ( b j ) I(X ; Y)=\sum_{k=1}^{K} \sum_{j=1}^{J} p\left(a_{k}, b_{j}\right) \log \frac{p\left(a_{k}, b_{j}\right)}{p\left(a_{k}\right) p\left(b_{j}\right)}

  • 熵与互信息的关系:互信息是随机变量之间相互依存度的度量信息。

  • 单个互信息物理意义: Y = b j Y=b_j 下获得的 X = a k X=a_k 的信息量,互信息 I ( X ; Y ) I(X;Y) 为单个互信息的均值。

  • 熵可由互信息导出。自信息的数学期望就是信息熵 H ( X ) = E [ I ( a k , a k ) ] = E [ H ( a k ) ] H(X) = E[I(a_k,a_k)]=E[H(a_k)]

  • 条件互信息:给定随机变量 Z Z 时,由 Y Y 的信息而获得的关于 X X 的信息
    I ( X ; Y Z ) = H ( X Z ) H ( X Y , Z ) = k = 1 K j = 1 J l = 1 L p ( a k , b j , c i ) log p ( a k , b j c i ) p ( a k c i ) p ( b j c i ) I(X ; Y \mid Z)=H(X \mid Z)-H(X \mid Y, Z)=\sum_{k=1}^{K} \sum_{j=1}^{J} \sum_{l=1}^{L} p\left(a_{k}, b_{j}, c_{i}\right) \log \frac{p\left(a_{k}, b_{j} \mid c_{i}\right)}{p\left(a_{k} \mid c_{i}\right) p\left(b_{j} \mid c_{i}\right)}

  • 互信息的链式法则:
    I ( X 1 , X 2 , , X n ; Y ) = i = 1 n I ( X i ; Y X i 1 , , X 1 ) I\left(X_{1}, X_{2}, \cdots, X_{n} ; Y\right)=\sum_{i=1}^{n} I\left(X_{i} ; Y \mid X_{i-1}, \cdots, X_{1}\right)

1.7 Jensen不等式

  • Jensen不等式:设函数 f ( x ) f(x) 是凸域 D D 上的下凸函数,则对任意 a m D a_m \in D 0 λ m 1 , λ 1 + . . . + λ M = 1 0\leq \lambda_m \leq 1, \lambda_1+ ... + \lambda_M = 1
    f ( m = 1 M λ m α m ) m = 1 M λ m f ( α n ) f\left(\sum_{m=1}^{M} \lambda_{m} \alpha_{m}\right) \leq \sum_{m=1}^{M} \lambda_{m} f\left(\alpha_{n}\right)

  • 信息不等式:两个概率密度函数为 p ( x ) p(x) q ( x ) q(x) 之间的鉴别信息为 D ( p q ) D(p||q) ,则: D ( p q ) 0 D(p||q) \geq 0 ,当且仅当对任意的 x x p ( x ) = q ( x ) p(x)=q(x) ,等号成立。

  • 推论:
    I ( X ; Y ) 0 I ( X ; Y Z ) 0 D ( p ( y x ) q ( y x ) ) 0 I(X;Y) \geq 0\\ I(X;Y|Z) \geq 0\\ D(p(y|x)||q(y|x))\geq 0
    H ( X ) l o g X H(X)\leq log|X| ,其中 X |X| 表示 X X 的字母表 X X 中元素的个数,当且仅当 X X 服从 X X 上的均匀分布时,等号成立。

  • 意义:在平均意义下,信源的不确定性减少。
    H ( X ) H ( X Y ) H ( X ) \geq H ( X | Y )

  • 熵的独立界:当且仅当 X i X_i 相互独立,等号成立。熵函数为上凸函数。
    H ( X 1 , X 2 , , X n ) i = 1 n H ( X i ) H\left(X_{1}, X_{2}, \cdots, X_{n}\right) \leq \sum_{i=1}^{n} H\left(X_{i}\right)

  • 定理:互信息为信源概率分布的上凸函数;互信息为信道矩阵的下凸函数。

1.8 对数和不等式

  • 上面的等式中假设信源概率分布为 p : p ( a k ) p:p(a_k) 。互信息由概率分布和条件概率矩阵确定。记为 Q : p ( b j a k ) Q:p(b_j|a_k) Q Q 有时也称为信道转移概率矩阵。互信息可记为 I ( p , Q ) I ( p, Q )
  • 对数和不等式:对于非负数 a 1 , a 2 , , a n a_1, a_2, …,a_n b 1 , b 2 , , b n b_1, b_2, …,b_n ,当且仅当 a i b i \frac{a_i}{b_i} 为常数时,等号成立 。
    i = 1 n a i log a i b i ( i = 1 n a i ) log ( i = 1 n a i / i = 1 n b i ) \sum_{i=1}^{n} a_{i} \log \frac{a_{i}}{b_{i}} \geq\left(\sum_{i=1}^{n} a_{i}\right) \log \left(\sum_{i=1}^{n} a_{i} / \sum_{i=1}^{n} b_{i}\right)
  • 相对熵的下凸性 D ( p q ) D(p||q) 关于对 ( p , q ) (p,q) 是下凸的。

1.9 数据处理不等式

  • 数据处理不等式:数据处理都会损失信息。 X Y Z X\to Y\to Z 构成Markov链,则
    I ( X ; Y ) I ( X ; Z ) I(X;Y)\geq I(X;Z)

  • 费诺不等式:定义误差概率为 P e = P r { X ^ X } P_e = Pr\{\hat{X} \neq X\} 。则对任何满足 X Y X ^ X\to Y\to \hat{X} 的估计量 X ^ \hat{X} ,有
    H ( P e ) + P e log X H ( X X ^ ) H ( X Y ) 1 + P e log X H ( X Y ) H\left(P_{\mathrm{e}}\right)+P_{\mathrm{e}} \log |\boldsymbol{X}| \geq H(X \mid \hat{X}) \geq H(X \mid Y)\\ 1+P_{\mathrm{e}} \log |\boldsymbol{X}| \geq H(X \mid Y)

  • 意义:假定没有任何关于 Y Y 的知识,只能在毫无信息的情况下对 X X 进行推测。 X { 1 , 2 , , K } X\in \{1,2,…,K\} p 1 p 2 p K p_1\geq p_2 \geq …\geq p_K 则对 X X 的最佳估计是 X ^ = 1 \hat{X}=1 ,而此时产生的误差概率为 P e = 1 p 1 P_e=1-p_1

  • 误差概率与熵之间的不等式:设 X X X X’ 为两个独立同分布的随机变量,有相同的熵 H ( X ) H(X) ,那么 X = X X=X' 的概率为
    Pr ( X = X ) = p 2 ( x ) \operatorname{Pr}\left(X=X^{\prime}\right)=\sum p^{2}(x)

猜你喜欢

转载自blog.csdn.net/weixin_42711949/article/details/107647441