信息论基础知识

自信息

自信息衡量的是信源符号本身的不确定性。信源符号发生的概率越大,自信息越小;反之,自信息越大。若信源符号 s i s_{i} 发生的概率为 p i p_{i} ,则 s i s_{i} 的自信息记为 I ( s i ) I(s_{i}) 。公式为:
I ( s i ) = l o g 1 p i = l o g p i I(s_{i})=log\frac{1}{p_{i}}=-logp_{i}
(log可以以2,e为底,若以2为底,则以bit为单位;以e为底,以nat为单位)

信息熵

信息熵是信源发出符号的平均信息量,衡量信源的不确定性。记为 H ( S ) H(S) ,公式为:
H ( S ) = i = 1 n p i I ( s i ) = i = 1 n p i l o g p i H(S)=\sum_{i=1}^{n}p_{i}I(s_{i})=-\sum_{i=1}^{n}p_{i}logp_{i}
例如:
在这里插入图片描述

条件自信息和条件熵

条件自信息量为:
I ( x i y j ) = l o g 1 p ( x i y j ) = l o g p ( x i y j ) I(x_{i}|y_{j})=log\frac{1}{p(x_{i}|y_{j})}=-logp(x_{i}|y_{j})
条件熵为:
H ( X Y ) = E [ I ( x i y j ) ] = i = 1 m j = 1 n p ( x i , y j ) l o g p ( x i y j ) H(X|Y)=E[I(x_{i}|y_{j})]=-\sum_{i=1}^{m}\sum_{j=1}^{n}p(x_{i},y_{j})logp(x_{i}|y_{j})
条件熵衡量的是当收到Y时X的剩余熵(不确定性)

互信息

互信息是衡量收到一个一个变量而使另一个变量的不确定性减少的量。也可以理解为从接收信号中获取的关于另一信号的信息量。
I ( X Y ) = H ( X ) H ( X Y ) = H ( Y ) H ( Y X ) I(X|Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)

联合熵

联合熵是两个变量的不确定性
H ( X , Y ) = i = 1 m j = 1 n p ( x i , y j ) l o g p ( x i , y j ) = H ( X ) + H ( Y X ) = H ( Y ) + H ( X Y ) H(X,Y)=-\sum_{i=1}^{m}\sum_{j=1}^{n}p(x_{i},y_{j})logp(x_{i},y_{j})=H(X)+H(Y|X)=H(Y)+H(X|Y)
信息熵、条件熵、联合熵和互信息之间的关系是:
关系

信息率与信道容量

信息率是每个信号的平均熵
R = I ( X ) = H ( X ) R=I(X)=H_{\infty }(X)
对一个如下图所示的有噪声信道来说
信道
信息率等于: R = I ( X ; Y ) = H ( X ) H ( X Y ) = H ( Y ) H ( Y X ) R=I(X;Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)
而信道容量是能够被可信传输的上界,即信道容量C为:
C = m a x P x R = m a x P x I ( X ; Y ) C=\underset{P_{x}}{max}R=\underset{P_{x}}{max}I(X;Y)

猜你喜欢

转载自blog.csdn.net/shayashi/article/details/82772769