离散信源 R(D)计算及限失真信源编码定理

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:https://github.com/timerring/information-theory 】或者公众号【AIShareLab】回复 信息论 获取。

离散信源 R(D)计算

给定信源概率 p i p_{\mathrm{i}} pi 和失真函数 d i j d_{\mathrm{i} j} dij 就可以求得该信源的 R(D) 函数。

它是在保真度准则下求极小值的问题。

但要得到它的显式表达式,一般比较困难。通常用参量表达式。即使如此,除简单的情况外实际计算还是困难的, 只能用迭代逐级逼近的方法。

二元对称信源的 R(D) 函数

设二元对称信源 X = { 0 , 1 } X=\{0,1\} X={ 0,1} , 其概率分布 p ( x ) = [ p , 1 − p ] p(x)=[p, 1-p] p(x)=[p,1p] ,接收变量 Y = { 0 , 1 } \mathbf{Y}=\{\mathbf{0}, \mathbf{1}\} Y={ 0,1} ,汉明失真矩阵

d = [ 0 1 1 0 ] d=\left[\begin{array}{ll} 0 & 1 \\ 1 & 0 \end{array}\right] d=[0110]

因而最小允许失真度 D min ⁡ = 0 D_{\min }=0 Dmin=0 。并能找到满足该最小失真的试验信道, 且是一个无噪无损信道, 其信道矩阵为

p = [ 1 0 0 1 ] p=\left[\begin{array}{ll} 1 & 0 \\ 0 & 1 \end{array}\right] p=[1001]

计算得: R ( 0 ) = I ( X ; Y ) = H ( p ) \mathrm{R}(0)=\mathrm{I}(\mathrm{X} ; \mathrm{Y})=\mathrm{H}(p) R(0)=I(X;Y)=H(p)

最大允许失真度为

D max  = min ⁡ j = 0 , 1 ∑ i = 0 1 p i d i j = min ⁡ { p ( 0 ) d ( 0 , 0 ) + p ( 1 ) d ( 1 , 0 ) , p ( 0 ) d ( 0 , 1 ) + p ( 1 ) d ( 1 , 1 ) } = min ⁡ j { ( 1 − p ) , p } = p \begin{aligned} D_{\text {max }} & =\min _{j=0,1} \sum_{i=0}^{1} p_{i} d_{i j} \\ & =\min \{p(0) d(0,0)+p(1) d(1,0), p(0) d(0,1)+p(1) d(1,1)\} \\ & =\min _{j}\{(1-p), p\}=p \\ \end{aligned} Dmax =j=0,1mini=01pidij=min{ p(0)d(0,0)+p(1)d(1,0),p(0)d(0,1)+p(1)d(1,1)}=jmin{(1p),p}=p

要达到最大允许失真度的试验信道, 唯一确定为

p = [ 0 1 0 1 ] p=\left[\begin{array}{ll} 0 & 1 \\ 0 & 1 \end{array}\right] p=[0011]

这个试验信道能正确传送信源符号 x=1 , 而传送信源符号 x=0 时,接收符号 一定为 y = 1 \mathrm{y}=1 y=1 。凡发送符号 x=0 时,一定都错了。而 x=0 出现的概率为 p , 所以信道的平均失真度为 p \boldsymbol{p} p

在这种试验信道条件下, 可计算得

R ( D max ⁡ ) = min ⁡ P D max ⁡ I ( X ; Y ) = H ( Y ) − H ( Y ∣ X ) = 0 \mathbf{R}\left(\mathbf{D}_{\max }\right)=\min _{P_{D \max }} I(X ; Y)=\boldsymbol{H}(\boldsymbol{Y})-\boldsymbol{H}(\boldsymbol{Y} \mid \boldsymbol{X})=\mathbf{0} R(Dmax)=PDmaxminI(X;Y)=H(Y)H(YX)=0

对于二进制无记忆信源, 若 P ( X i = 0 ) = p , P ( X i = 1 ) = 1 − p P(X_{\mathrm{i}}=0)=p, P(X_{\mathrm{i}}=1)=1- p P(Xi=0)=p,P(Xi=1)=1p , 且采用汉明失真, 其率失真函数为

R ( D ) = { H b ( p ) − H b ( D ) , 0 ≤ D ≤ min ⁡ { p , 1 − p } 0 ,  otherwise  R(D)=\left\{\begin{array}{cc} H_{b}(p)-H_{b}(D), & 0 \leq D \leq \min \{p, 1-p\} \\ 0, & \text { otherwise } \end{array}\right. R(D)={ Hb(p)Hb(D),0,0Dmin{ p,1p} otherwise 

有一个二进制无记忆信源,以概率p=0.25输出“1”,以概率1-p=0.75输出“0”。请问:

(1)若要求采用无失真信源编码,信息率失真函数是多少?

(2)若重构该信源的错误概率不超过0.1,信息率失真函数是多少?

(3)若重构该信源的错误概率不超过0.25,信息率失真函数是多少?这种情况下,最佳的译码策略是什么?

解:
(1) H ( x ) = − 0.25 log ⁡ 0.25 − 0.75 log ⁡ 0.75 = 0.8113 b i t / s y m H(x)=-0.25 \log 0.25-0.75 \log 0.75=0.8113 bit/sym H(x)=0.25log0.250.75log0.75=0.8113bit/sym

(2) H ( 0.25 ) − H ( 0.1 ) = 0.3423 b i t / s y m H(0.25)-H(0.1)=0.3423 bit/sym H(0.25)H(0.1)=0.3423bit/sym

(3) 0. 最佳译码策略是将接收到的信号都译码为 ’ 0 ’

高斯信源的 R(D)函数

对于均值为 0 , 方差为 σ 2 \sigma^{2} σ2 的高斯信源, 采用平方失真时的率失真函数为

R ( D ) = { 1 2 log ⁡ σ 2 D , 0 ≤ D ≤ σ 2 0 ,  otherwise  R(D)=\left\{\begin{array}{cc} \frac{1}{2} \log \frac{\sigma^{2}}{D}, & 0 \leq D \leq \sigma^{2} \\ 0, & \text { otherwise } \end{array}\right. R(D)={ 21logDσ2,0,0Dσ2 otherwise 

可见, 随着D的增大, R(D)减小。 当 D ⩾ D max ⁡ D \geqslant D \max DDmax 时, R(D)=0

一般信息率失真函数的图形如下所示

限失真信源编码定理

设离散无记忆信源 X \mathrm{X} X 的信息率失真函数为 R ( D ) R(\mathrm{D}) R(D) ,

  • 当信息率 R>R(D) 时, 只要信源序列长度 L 足够长,一定存在一种编码方法,其译码失真小于或等于 D + ε D+\varepsilon D+ε, ε \varepsilon ε 为任意小的正数;
  • 反之, 若 R<R (D), 则无论采用什么样的编码方法, 其译码失真必大于 D。

如是二元信源, 则对于任意小的 ε > 0 \varepsilon>0 ε>0 , 每一个信源符号的平均码长满足如下公式:

R ( D ) ≤ K ˉ ≤ R ( D ) + ε R(D) \leq \bar{K} \leq R(D)+\varepsilon R(D)KˉR(D)+ε

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.

猜你喜欢

转载自blog.csdn.net/m0_52316372/article/details/130380093
今日推荐