信息论与编码信息的度量精选PPT.ppt
《信息论与编码信息的度量精选PPT.ppt》由会员分享,可在线阅读,更多相关《信息论与编码信息的度量精选PPT.ppt(65页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、信息论与编码信息的度量1第1页,此课件共65页哦2.5 2.5 联合熵和条件熵联合熵和条件熵 联合熵:联合自信息量的统计平均。联合熵:联合自信息量的统计平均。条件熵:条件自信息量的统计平均条件熵:条件自信息量的统计平均各类熵之间的关系:与各类熵之间的关系:与各类自信息量之间的关系各类自信息量之间的关系对应。对应。2第2页,此课件共65页哦1 1 联合熵联合熵设联合概率空间为设联合概率空间为 联合符号联合符号 的先验不确定性称为联合自信息量的先验不确定性称为联合自信息量:统计平均统计平均联合熵熵熵 的物理意义的物理意义:信源信源 的平均不确定性。的平均不确定性。3第3页,此课件共65页哦2 2
2、条件熵条件熵设联合概率空间为设联合概率空间为 条件自信息量条件自信息量:统计平均统计平均条件熵4第4页,此课件共65页哦3 3 各类熵之间的关系各类熵之间的关系同理同理总之总之熵的强可加性 推广推广5第5页,此课件共65页哦各类熵之间的关系各类熵之间的关系(续续)于是于是因此,熵之间的关系简化:因此,熵之间的关系简化:熵的可加性 推广:推广:当当 与与 相互独立,则相互独立,则统计独立时,有统计独立时,有6第6页,此课件共65页哦X01P2/31/3例例 已知某离散信源如下,且其符号转移概率如右下所示,求H(X)、H(Y|X)和H(X,Y)7第7页,此课件共65页哦解:解:8第8页,此课件共6
3、5页哦另一方面:后验概率可以求出:可以求出条件熵:同样可以求出联合熵:9第9页,此课件共65页哦例例 已知一离散二维平稳信源已知一离散二维平稳信源一维概率一维概率 分布分布 二维概率分布二维概率分布 表表2.2 ajai0 01 12 20 01/41/41/181/180 01 11/181/181/31/31/181/182 20 01/181/187/367/36求两种熵。求两种熵。10第10页,此课件共65页哦解解:(1)(1)计算条件概率计算条件概率二维条件概率分布表二维条件概率分布表2.3 ajai0 01 12 20 09/119/111/81/80 01 12/112/113/
4、43/42/92/92 20 01/81/87/97/911第11页,此课件共65页哦(2)(2)(3)(3)另另12第12页,此课件共65页哦2.6 平均互信息量及其性质平均互信息量及其性质平均互信息量 平均互信息量的基本性质 13第13页,此课件共65页哦n 互信息量互信息量互信息量表示先验的不确定性减去尚存的不确定性,这就是收信者获得的信息量;互信息量可能为正数、负数、0;对于无干扰信道,I(xi;yj)=I(xi)xiyj信道p(xi):发送端发送 xi 的概率;P(xi|yj):接收端收到 yj 后,发送端发送 xi 的概率定义:14第14页,此课件共65页哦 为什么需要定义平均互信
5、息量?互信息量 是定量地研究信息流通问题的重要基础。但它只能定量地描述输入随机变量发出某个具体消息 ,输出变量出现某一个具体消息 时,流经信道的信息量;此外 还是随 和 变化而变化的随机变量。互信息量不能从整体上作为信道中信息流通的测度。这种测度应该是从整体的角度出发,在平均意义上度量每通过一个符号流经信道的平均信息量。定义互信息量 在联合概率空间 中的统计平均值为Y对X的平均互信息量,简称平均互信息,也称平均交互信息量或交互熵。15第15页,此课件共65页哦 平均互信息量:与 之间的平均互信息量 是统计平均意义下的先验不确定性与后验不确定性之差,也是互信息量 的统计平均统计平均:16第16页
6、,此课件共65页哦1.对称性对称性根据互信息量的对称性,容易推得根据互信息量的对称性,容易推得I(X;Y)=I(Y;X)说明说明从集合从集合Y中获取中获取X的信息量,等于从集的信息量,等于从集合合X中获取中获取Y的信息量的信息量。17第17页,此课件共65页哦 2.与各种熵的关系与各种熵的关系I(X;Y)=H(X)H(X|Y)I(Y;X)=H(Y)H(Y|X)I(X;Y)=H(X)+H(Y)H(XY)H(XY)为为X集合和集合和Y集合的集合的共熵共熵,或称,或称联合熵联合熵。共熵应该是共熵应该是联合符号集合联合符号集合XY上的每个元素对上的每个元素对xy的自信息量的的自信息量的概率加权统计平均
7、值概率加权统计平均值。18第18页,此课件共65页哦I(X;Y)=H(X)+H(Y)H(XY)根据各种熵的定义,从该式可以清楚看出平均根据各种熵的定义,从该式可以清楚看出平均互信息量互信息量是一个表征信息流通的量是一个表征信息流通的量其物理意义就是其物理意义就是信源端的信息通过信道后传信源端的信息通过信道后传输到信宿端的平均信息量输到信宿端的平均信息量。19第19页,此课件共65页哦 3有界性 各种熵以及平均互信息量之间的关系可用以下文氏图表示。熵、平均互信息量关系图20第20页,此课件共65页哦例例 已知信源空间已知信源空间 信道特性如图所示,求在该信道上传输的信道特性如图所示,求在该信道上
8、传输的 平均互信息量平均互信息量I(X;Y)。图图 信道特性信道特性21第21页,此课件共65页哦解解(1)根据根据P(xiyj)=P(xi)P(yj|xi),求各联合概率,得,求各联合概率,得P(x1y1)=P(x1)P(y1|x1)=0.50.98=0.49P(x1y2)=P(x1)P(y2|x1)=0.50.02=0.01P(x2y1)=P(x2)P(y1|x2)=0.50.20=0.10P(x2y2)=P(x2)P(y2|x2)=0.50.80=0.40(2)根据根据 ,求,求Y集合中各符号的概率,集合中各符号的概率,得得P(y1)=P(x1)P(y1|x1)+P(x2)P(y1|x2
9、)=0.50.980.50.2=0.59P(y2)=1 0.59=0.4122第22页,此课件共65页哦(3)根据)根据P(xi|yj)=P(xi yj)/P(yj),求各后验概率,得,求各后验概率,得P(x1|y1)=P(x1y1)/P(y1)=0.49/0.59=0.831P(x2|y1)=P(x2y1)/P(y1)=0.10/0.59=0.169P(x1|y2)=P(x1y2)/P(y2)=0.01/0.41=0.024P(x2|y2)=P(x2y2)/P(y2)=0.40/0.41=0.97623第23页,此课件共65页哦(4)求熵,有)求熵,有 I(X;Y)=H(X)+H(Y)H(X
10、Y)=1+0.98-1.43=0.55 比特比特/信符信符24第24页,此课件共65页哦2.7 2.7 离散无记忆信源的扩展离散无记忆信源的扩展 DMSDMSDMS研究信源输出的研究信源输出的单个符号单个符号的统的统计特性计特性研究信源输出的研究信源输出的符号串符号串的的统计特性统计特性单符号信源单符号信源 的的 次扩展信源次扩展信源多符号信源多符号信源?25第25页,此课件共65页哦输出的消息序列中各符号之间无相互依赖关输出的消息序列中各符号之间无相互依赖关系的信源。亦称为系的信源。亦称为单符号离散平稳无记忆信单符号离散平稳无记忆信源的扩展信源源的扩展信源。序列长度就是扩展次数序列长度就是扩
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 信息 度量 精选 PPT
限制150内