信息论第五讲.ppt
《信息论第五讲.ppt》由会员分享,可在线阅读,更多相关《信息论第五讲.ppt(63页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、关于信息论第五讲现在学习的是第1页,共63页说明:说明:p(y/x)为为DMC1的信道转移概率;的信道转移概率;p(z/y)为为DMC2的信道转移概率;的信道转移概率;p(z/x,y)为串联信道的信道转移概率;为串联信道的信道转移概率;p(z/x,y) =p(z/y),说明说明DMC2的输出只取决于的输出只取决于DMC2的输入,这个串联信道具有马尔的输入,这个串联信道具有马尔可夫链性质。可夫链性质。I(X,Y;Z)由输出状态由输出状态Z中得到的关于联合状态中得到的关于联合状态(X,Y)的信息量。的信息量。I(Y;Z)由输出状态由输出状态Z中得到的关于状态中得到的关于状态Y的信息量。的信息量。现
2、在学习的是第2页,共63页)(),/(log)()/(log);,();(zpyxzpEzpyzpEZYXIZYI),/()/(logyxzpyzpExyzyxzpyzpzyxp),/()/(log),(I(Y;Z)=H(Y)-H(Y/Z)=H(Z)-H(Z/Y)=I(Z;Y)()/(log)/(1log)(1log)/()(zpyzpEyzpEzpEYZHZH现在学习的是第3页,共63页DMC1DMC2XYZ同理:同理: 对于所有满足对于所有满足p(x,y,z)0的的(x,y,z),);();,(ZXIZYXI当且仅当当且仅当p(z/x,y)=p(z/x)时,等式成立。时,等式成立。从从Z中
3、获得中获得X,Y的信息量总是大于等于从的信息量总是大于等于从Z中获得的中获得的X的信息量。的信息量。现在学习的是第4页,共63页根据根据: :I(X;Z)=H(X)-H(X/Z)=H(Z)-H(Z/X)=I(Z;Y)(),/(log)()/(log);,();(zpyxzpEzpxzpEZYXIZXI),/()/(logyxzpxzpExyzyxzpxzpzyxp),/()/(log),(xyzyxzpxzpzyxp),/()/(),(log现在学习的是第5页,共63页01log)/(),(logxyzxzpyxp)(),/(log)()/(log);,();(zpyxzpEzpxzpEZYX
4、IZXI);();,(ZXIZYXI即即:当当p(z/x,y)=p(z/x)时,等式成立。时,等式成立。说明信道说明信道1是一种无失真的变换。是一种无失真的变换。现在学习的是第6页,共63页(2) 数据处理定理数据处理定理p(y/x)p(z/xy)XYZ定理:定理:若若X,Y,Z为离散随机变量,并且构成一个马尔可夫链,为离散随机变量,并且构成一个马尔可夫链,则有:则有:I(X;Z)I(X;Y)I(X;Z)I(Y;Z)证明证明2:如果满足马尔可夫链,即如果满足马尔可夫链,即p(z/xy)=p(z/y)。则串联信。则串联信道定理中的等号成立。道定理中的等号成立。现在学习的是第7页,共63页p(y/
5、x)p(z/xy)XYZI(X,Y;Z)=I(Y;Z)同时在串联信道定理中还有:同时在串联信道定理中还有:I(X,Y;Z)I(X;Z)因此得到因此得到:I(X;Z)I(Y;Z)同样可以证明同样可以证明I(X;Z)I(X;Y)现在学习的是第8页,共63页(3) 数据处理定理推广数据处理定理推广信源编码器译码器信道UXYV),.,(21kUUUU ),.,(21nXXXX ),.,(21nYYYY ),.,(21kVVVV 这是一个通信系统基本模型。这是一个通信系统基本模型。其中的其中的U,X,Y,V为离散随机矢量。为离散随机矢量。现在学习的是第9页,共63页对于一个实际通信系统来说,对于一个实际
6、通信系统来说, U,X,Y,V构成的离散构成的离散随机矢量序列形成一个马尔可夫链。也就是说他们满足:随机矢量序列形成一个马尔可夫链。也就是说他们满足:)/(),/(xypuxyp)/(),/(yvpyxvp这是山农信息理论对通信系统模型的一个基本假设。这是山农信息理论对通信系统模型的一个基本假设。信源编码器译码器信道UXYV现在学习的是第10页,共63页信源编码器译码器信道UXYV这是山农信息理论对通信系统模型的一个基本假设。这是山农信息理论对通信系统模型的一个基本假设。根据根据数据处理定理数据处理定理可以得到:可以得到:);();(YXIVXI);();(YUIVUI);();(VXIVUI
7、);();(YXIVUI现在学习的是第11页,共63页);();(YXIVUI说明:说明:q信息的处理,例如编码,译码等,只能损失信息,信息的处理,例如编码,译码等,只能损失信息,不能增加信息。不能增加信息。q只有当信息处理是一一对应时,等号成立。只有当信息处理是一一对应时,等号成立。q这一点在理论上是正确的,但是为了有效并可靠这一点在理论上是正确的,但是为了有效并可靠的传输信息,数据处理还是必要的。的传输信息,数据处理还是必要的。信源编码器译码器信道UXYV现在学习的是第12页,共63页(4)多符号信源多符号信源离散随机矢量离散随机矢量xxpxpXH)(1log)()(),()/()()/(
8、)(),(XYIXYHYHYXHXHYXI现在学习的是第13页,共63页2.7.4 信源的剩余度信源的剩余度关于离散信源熵的总结:关于离散信源熵的总结:实际信源一般是非平稳的、有记忆、随机序列信源;实际信源一般是非平稳的、有记忆、随机序列信源;其极限熵是不存在的;其极限熵是不存在的;解决的方法是假设其为离散平稳随机序列信源,极限熵存在,解决的方法是假设其为离散平稳随机序列信源,极限熵存在,但求解困难;但求解困难;进一步假设其为进一步假设其为m阶阶Markov信源,其信源熵用极限熵信源,其信源熵用极限熵H m+1近似;近似;再 进 一 步 假 设 为 一 阶再 进 一 步 假 设 为 一 阶 M
9、arkov信 源 , 用 其 极 限 熵信 源 , 用 其 极 限 熵H1+1(X2/X1) 来近似;来近似;最简化的信源是离散无记忆信源,最简化的信源是离散无记忆信源,其熵为其熵为H(x)=H1 (X);最后可以假定为等概的离散无记忆信源,最后可以假定为等概的离散无记忆信源,其熵为其熵为H0(X)=logn;现在学习的是第14页,共63页它们之间的关系可以表示为:它们之间的关系可以表示为:logn=H0(X)H1(X)H1+1(X)H 2+1(X)H m+1(X)H离散有记忆信源的记忆长度越长,信源熵越小;离散有记忆信源的记忆长度越长,信源熵越小;而独立且等概的信源,熵最大。而独立且等概的信
10、源,熵最大。例例英文字母信源:英文字母信源:26个字母加个字母加1个空格符个空格符H0=log27=4.76 bit (等概)H1=4.02 bit (不等概)H1+1=3.32 bit (一阶M-信源)H2+1=3.1 bit (二阶M-信源)H=1.4 bit 现在学习的是第15页,共63页剩余度:剩余度:用来衡量由于信源内部的消息状态的相关性和分布性,用来衡量由于信源内部的消息状态的相关性和分布性,使其熵减少的程度称为剩余度。使其熵减少的程度称为剩余度。相对熵:相对熵:= H/H0 =H(X)/Hmax(X) =(实际信源熵)/(离散信源最大熵) 内熵内熵(信息熵差信息熵差):= H0-
11、 H =H(X)-Hmax(X)=(最大熵)-(实际信源熵)剩余度:剩余度:现在学习的是第16页,共63页 连续信源熵与信道容量连续信源熵与信道容量上一章我们讨论的是离散信源,实际应用中还有一类信源称为连续信源,上一章我们讨论的是离散信源,实际应用中还有一类信源称为连续信源,这种信源的时间和取值都是连续的,例如语音信号,电视图像信号都是连这种信源的时间和取值都是连续的,例如语音信号,电视图像信号都是连续信号。续信号。时间离散状态连续的信源熵可以用连续信源熵表示,相当于一个时间离散状态连续的信源熵可以用连续信源熵表示,相当于一个连续随机变量。连续随机变量。而时间连续的信源,为一个随机过程,只要信
12、号频谱有限,则而时间连续的信源,为一个随机过程,只要信号频谱有限,则可以根据采样定理,将其变为时间离散信源。可以根据采样定理,将其变为时间离散信源。这里我们只讨论单变量连续信源,即时间离散状态连续的连续信源。这里我们只讨论单变量连续信源,即时间离散状态连续的连续信源。现在学习的是第17页,共63页3.1连续信源的熵连续信源的熵3.1.1 连续信源熵的定义连续信源熵的定义连续信源的状态概率用概率密度来表示。连续信源的状态概率用概率密度来表示。如果连续随机变量X,取值为实数域R,其概率密度函数为p(x),则Rdxxp1)(如果取值为有限实数域a,b,则这时X的概率分布函数为:1)(1) 1(xdx
13、xpxXPxF现在学习的是第18页,共63页连续信源的数学模型连续信源的数学模型X:R(或a,b)P(X):p(x)badxxp1)(连续信源熵的表达式连续信源熵的表达式利用离散信源熵的概念来定义连续信源熵,首先看一个再a,b取间的连续随机变量,如图 首先把X的取值区间a,b分割为n个小区间,小区间宽度为:=(b-a)/n根据概率分布为概率密度函数曲线的区间面积的关系,X取值为xi的概率为:Pi=p(xi).现在学习的是第19页,共63页这样可以得到离散信源Xn的信源空间为:)(.)()(: ,2211nnnxpxxpxxpxPX且有:当n趋无穷时,baninnindxxpxipPi1)()(
14、limlim11按离散信源熵的定义:可得离散信源Xn的熵:niniiinxipxipPPXH11)(log)(log)(ninixipxipxip11)(log)(log)(log)(log)(xipxip现在学习的是第20页,共63页当趋于0,n趋于无穷时,离散随机变量Xn将接近于连续随机变量X,这时可以得到连续信源的熵为:其中:连续信源的熵定义为:ninncxipxipXHXH10log)(log)(lim)(lim)()(XHloglim)(log)(0badxxpxpbadxxpxpXH)(log)()(现在学习的是第21页,共63页连续信源熵为一个相对熵,其值为绝对熵减去一个无穷连续
15、信源熵为一个相对熵,其值为绝对熵减去一个无穷大量。大量。H(X)=Hc(X)-连续信源有无穷多个状态,因此根据连续信源有无穷多个状态,因此根据SHANNON熵的定熵的定义必然为无穷大。义必然为无穷大。连续信源的熵不等于一个消息状态具有的平均信息量。其熵是有连续信源的熵不等于一个消息状态具有的平均信息量。其熵是有限的,而信息量是无限的。限的,而信息量是无限的。连续信源熵不具有非负性,可以为负值。连续信源熵不具有非负性,可以为负值。尽管连续信源的绝对熵为一个无穷大量,但信息论的主要问题是信息传输问题,连续信道的输入输出都是连续变量,当分析其交互信息量时是求两个熵的差,当采用相同的量化过程时,两个无
16、穷大量将被抵消,不影响分析。现在学习的是第22页,共63页连续信源的疑义度:则平均交互信息量为: I(X,Y)=H(X)-H(X/Y)dxdyyxpyxpYXH)/(log),()/(3.1.2 几种连续信源的熵几种连续信源的熵均匀分布的连续信源熵均匀分布的连续信源熵设一维连续随机变量X的取值区间是a,b,在a,b中的概率密度函数是axbxbxaabxp,01)(现在学习的是第23页,共63页这种连续信源称为均匀分布的连续信源。其熵为:这时可以看到:当(b-a)1时,H(X)0,即H(X)不具有熵函数的非负性,因为H(X)是相对熵,相对熵可以为负值,但绝对熵仍然为正值。)log(1log1)(
17、log)()(abdxababdxxpxpXHbaba高斯分布的连续信源熵高斯分布的连续信源熵设一维随机变量X的取值范围是整个实数R,概率密度函数为:2)(exp21)(222mxxp现在学习的是第24页,共63页其中,m是随机变量X的均值2是随机变量X的方差当均值m=0时,方差2就是随机变量的平均功率,dxxxpxEm)(dxxpmxmXE)()()(222dxxpxP)(2现在学习的是第25页,共63页这个信源称为高斯分布的连续信源,其数学模型为:2)(exp21)(: )(: ,222mxxpRXPXPX1)(dxxp这时可以得到高斯连续信源的熵为:dxmxxpdxxpxpXH2)(ex
18、p21log)()(log)()(2222222log21212log21212logedxmxxpdxxp2222)()(21log)(现在学习的是第26页,共63页指数分布的连续信源熵指数分布的连续信源熵设一随机变量X的取值取间为0,其概率密度函数为)0(1)(xeaxpax则称为指数分布的连续信源。其中常数a为随机变量X的均值。即adxeaxdxxxpmXEax001)(指数分布的连续信源的熵为dxeaeadxxpxpXHaxax1log1)(log)()(00aedxxeadxeaaaxaxlog1log100现在学习的是第27页,共63页3.2 3.2 连续信源的最大熵连续信源的最大
19、熵3.2.1 连续信源的最大熵连续信源的最大熵为了求出连续信源的最大熵,将利用数学中的变分法的方法来求解。连续信源的熵为:其基本约束条件为:其它约束条件为:dxxpxpXH)(log)()(1)(dxxp22( , )bax p dxK33( , )bax p dxK现在学习的是第28页,共63页建立辅助函数:其中有:根据极值的条件有:及m个约束方程,可以确定最大熵和所对应的信源概率密度分布p(x)。 11 , ( )( , )( , ).( , )mmF x p xf x p dxx p dxx p dx )(log)(),(xpxppxf0),(ppxF现在学习的是第29页,共63页输出幅
20、度受限时的最大熵(瞬时功率受限)输出幅度受限时的最大熵(瞬时功率受限)其基本条件为:|x|v,x2S,这时对应只有一个约束方程,vvdxxp1)(01)(log1 ),(1),(),(1xpppxppxfppxF可以得到:11)(; 11)(logexpxp现在学习的是第30页,共63页这里的对数为以e为底,由约束方程可得:Svxpvedxevv2121)(;21; 11111结论:对于瞬时功率受限的连续信源,在假定信源状态结论:对于瞬时功率受限的连续信源,在假定信源状态为独立时,当概率密度分布为常数时,信源具有最大熵。为独立时,当概率密度分布为常数时,信源具有最大熵。其最大熵为:其最大熵为:
21、vdxvvXHvv2log21log21)(max现在学习的是第31页,共63页输出平均功率受限时的最大熵输出平均功率受限时的最大熵推导:这时的约束条件为:22)(; 1)(dxxpxdxxp可知:)(),();(),();(log)(),(221xpxpxxppxxpxppxf221),(; 1),();(log1 ),(xppxppxxpppxf现在学习的是第32页,共63页由极值条件:12120fppp 0)(log1 221xxp可得:1)(log221xxp2211)(xeexp现在学习的是第33页,共63页将其代入约束条件,可得:12211dxeex2212221)(dxexedx
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 第五
限制150内