信息论与编码 信源与信息熵PPT讲稿.ppt
《信息论与编码 信源与信息熵PPT讲稿.ppt》由会员分享,可在线阅读,更多相关《信息论与编码 信源与信息熵PPT讲稿.ppt(63页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、信息论与编码信息论与编码信息论与编码信息论与编码 信源与信源与信源与信源与信息熵信息熵信息熵信息熵第1页,共63页,编辑于2022年,星期四2.1 2.1 信源的描述和分类信源的描述和分类2.2 2.2 离散信源熵和互信息离散信源熵和互信息2.3 2.3 离散序列信源熵离散序列信源熵2.4 2.4 连续信源的熵和互信息连续信源的熵和互信息2.5 2.5 冗余度冗余度内容内容2第2页,共63页,编辑于2022年,星期四2.3 2.3 离散序列信源熵离散序列信源熵3第3页,共63页,编辑于2022年,星期四2.3 2.3 离散序列信源熵离散序列信源熵 前面讨论了单个单个消息(符号)的离散信源熵,并
2、较详细地讨论了它的性质。然而实际信源的输出往往是空间或时间的离散随机序列离散随机序列,其中有无记忆的离散信源熵序列,当然更多的序列是有记忆的,即序列中的符号之间有相关性。此时需要用联合概率分布函数联合概率分布函数或条件条件概率分布函数概率分布函数来描述信源发出的符号间的关系。这里讨论离散无记忆序列信源和两类较简单的离散有记忆序列信源(平稳序列和齐次遍历马尔可夫链信源)。4第4页,共63页,编辑于2022年,星期四离散信源离散无记忆信源离散有记忆信源发出单个符号的无记忆信源发出符号序列的无记忆信源发出符号序列的有记忆信源发出符号序列的马尔可夫信源2.3.1 2.3.1 离散无记忆信源的序列熵离散
3、无记忆信源的序列熵发出单个符号的信源指信源每次只发出一个符号代表一个消息;发出符号序列的信源指信源每次发出一组含二个以上符号的符号序列代表一个消息。5第5页,共63页,编辑于2022年,星期四发出符号序列的信源发出单个符号的信源6第6页,共63页,编辑于2022年,星期四离散无记忆信源的序列熵离散无记忆信源的序列熵 随机序列的概率为 设信源输出的随机序列为 X=(X1X2XlXL)序列中的单个符号变量Xlx1,x2,xn,l=1,2,L.X称为离散无记忆信源X的L次扩展信源 7第7页,共63页,编辑于2022年,星期四离散无记忆信源的序列熵离散无记忆信源的序列熵 信源的序列熵为随机序列的概率为
4、 8第8页,共63页,编辑于2022年,星期四离散无记忆信源的序列熵离散无记忆信源的序列熵 当信源无记忆时 信源的序列熵 9第9页,共63页,编辑于2022年,星期四离散无记忆信源的序列熵离散无记忆信源的序列熵若又满足平稳特性,即与序号l无关时:信源的序列熵 平均每个符号(消息)熵为 离散无记忆信源平均每个符号的符号熵HL(X)等于单个符号信源的符号熵H(X)10第10页,共63页,编辑于2022年,星期四例例:有一个无记忆信源随机变量X(0,1),等概率分布,若以单个符号单个符号出现为一事件,则此时的信源熵:即用 1比特就可表示该事件。如果以两个符号两个符号出现(L=2的序列)为一事件,则随
5、机序列X(00,01,10,11),信源的序列熵序列熵即用2比特才能表示该事件。信源的符号熵11第11页,共63页,编辑于2022年,星期四例例:有一离散平稳无记忆信源 求:二次二次扩展信源的熵X2信源的元素 a1 a2a3a4a5a6a7a8a9对应的消息序列 x1x1x1x2x1x3x2x1x2x2x2x3x3x1x3 x2x3 x3概率p(ai)1/4 1/81/81/81/16 1/161/81/16 1/1612第12页,共63页,编辑于2022年,星期四平均每个符号(消息)熵为 信源的序列熵序列熵为 13第13页,共63页,编辑于2022年,星期四2.3.2 离散有记忆信源序列熵离
6、散有记忆信源序列熵对于有记忆信源,就不像无记忆信源那样简单,它必须引入条件熵的概念,而且只能在某些特殊情况下才能得到一些有价值的结论。对于由两个符号组成的联合信源,有下列结论:当前后符号无依存关系时,有下列推论:14第14页,共63页,编辑于2022年,星期四信源的联合熵(即前后两个符号(X1,X2)同时发生的不确定度)等于信源发出前一个符号X1的信息熵加上前一个符号X1已知时信源发出下一个符号X2的条件熵。对于一般的有记忆信源如文字、数据等,它们输出的不是单个或两个符号,而是由有限个符号组成的序列,这些输出符号之间存在着相互依存的关系。可依照上述结论来分析序列的熵值。离散有记忆信源序列熵离散
7、有记忆信源序列熵15第15页,共63页,编辑于2022年,星期四若信源输出一个L长序列,则信源的序列熵为平均每个符号的熵为:若当信源退化为无记忆时:若进一步又满足平稳性时 16第16页,共63页,编辑于2022年,星期四a0a1a2a09/112/110a11/83/41/8a202/97/9例例2-12已知离散有记忆信源中各符号的概率空间为:设发出的符号只与前一个符号有关,这两个符号的概率关联性用条件概率p(aj|ai)表示,如表.p(aj|ai)求离散信源的序列熵和平均每个符号熵?17第17页,共63页,编辑于2022年,星期四由 p(ai,aj)=p(ai)p(aj|ai)计算得联合概率
8、p(ai aj)如表a0a1a2a01/41/180a11/181/31/18a201/187/36当信源符号之间无依赖性时,信源X的信息熵为当考虑符号之间有依赖性时,计算得条件熵 H(X2|X1)H(X)信源的条件熵比无依赖时的熵H(X)减少了0.671比特,这正是因为符号之间有依赖性所造成的结果。18第18页,共63页,编辑于2022年,星期四联合熵H(X1,X2)表示平均每二个信源符号所携带的信息量。我们用1/2H(X1,X2)作为二维平稳信源X的信息熵的近似值。那么平均每一个信源符号携带的信息量近似为:符号之间存在关联性发二重符号序列的熵 比较或或19第19页,共63页,编辑于2022
9、年,星期四离散平稳信源离散平稳信源对于离散平稳信源,有下列结论:条件熵H(XL|XL-1)随L的增加是非递增的条件较多的熵必小于或等于条件较少的熵,而条件熵必小于或等于无条件熵。平稳性,联合平稳性,联合概率具有时间概率具有时间推移不变性。推移不变性。20第20页,共63页,编辑于2022年,星期四 HL(X)是L的单调非增函数 HL(X)HL-1(X)H(X)称为平稳信源的极限熵或极限信息量 H0(X)H1(X)H2(X)H(X)L给定时,平均符号熵条件熵:H L(X)H(XL|XL-1)推广结论推广结论3可得:可得:不等不等概率概率无无记忆记忆信源单信源单个符号的熵个符号的熵两个符号组两个符
10、号组成的成的序列平序列平均符号熵均符号熵等概率等概率无记无记忆信源忆信源单个单个符号的熵符号的熵21第21页,共63页,编辑于2022年,星期四马尔可夫信源的信息熵马尔可夫信源的信息熵 马尔可夫信源马尔可夫信源齐次、遍历的马尔可夫信源的熵齐次、遍历的马尔可夫信源的熵马尔可夫链的马尔可夫链的稳态分布稳态分布22第22页,共63页,编辑于2022年,星期四s2s31/0.61/0.20/0.5s11/0.51/0.10/0.9例2-13 三状态马尔可夫信源0/0.823第23页,共63页,编辑于2022年,星期四24第24页,共63页,编辑于2022年,星期四2.5 2.5 冗余度冗余度25第25
11、页,共63页,编辑于2022年,星期四冗余度冗余度冗余度(多余度、剩余度)表示信源在实际发出消息时所包含的多余信息。冗余度:信源符号间的相关性。相关程度越大,信源的实际熵越小信源符号分布的不均匀性。等概率分布时信源熵最大。26第26页,共63页,编辑于2022年,星期四冗余度冗余度对于有记忆信源,极限熵为H(X)。这就是说我们需要传送这一信源的信息,理论上只需要传送H(X)即可。但必须掌握信源全部概率统计特性,这显然是不现实的。实际上,只能算出Hm(X)。那么与理论极限值相比,就要多传送Hm(X)H(X)。为了定量地描述信源的有效性,定义:信息效率冗余度27第27页,共63页,编辑于2022年
12、,星期四冗余度冗余度由于信源存在冗余度,即存在一些不必要传送的信息,因此信源也就存在进一步压缩其信息率的可能性。信源冗余度越大,其进一步压缩的潜力越大。这是信源编码与数据压缩的前提与理论基础。在实际通信系统中,为了提高传输效率,往往需要把信源的大量冗余进行压缩,即所谓信源编码。但是考虑通信中的抗干扰问题,则需要信源具有一定的冗余度。因此在传输之前通常加入某些特殊的冗余度,即所谓信道编码,以达到通信系统中理想的传输有效性和可靠性。28第28页,共63页,编辑于2022年,星期四冗余度冗余度例:英文字母:等概率 H0=log27=4.76比特/符号 不等概率 H1=4.03比特/符号 考虑相关性
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论与编码 信源与信息熵PPT讲稿 信息论 编码 信源 信息 PPT 讲稿
限制150内