信源的相关性和剩余度.ppt





《信源的相关性和剩余度.ppt》由会员分享,可在线阅读,更多相关《信源的相关性和剩余度.ppt(16页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第第9 9讲讲 离散信源的剩余度及其应用离散信源的剩余度及其应用1 1、剩余度、剩余度2 2、应用、应用冗余度冗余度(剩余度剩余度)实际的离散信源可能是非平稳的,对于非平稳信源来说,其 H 不一定存在,但可以假定它是平稳的,用平稳信源的H来近似。然而,对于一般平稳的离散信源,求H值也是极其困难的。那么,进一步可以假设它是m阶马尔可夫信源,用m阶马尔可夫信源的平均信息熵H(m+1)来近似。再进一步简化信源,即可假设信源是无记忆信源,而信源符号有一定的概率分布。这时,可用信源的平均自信息量H1=H(X)来近似。最后,可以假定是等概分布的无记忆离散信源,用最大熵H0=logM来近似。由于信源符号间的
2、依赖关系使信源的熵减小。它们的前后依赖关系越长,信源的熵越小。当信源符号间彼此无依赖、等概率分布时,信源的熵才达到最大。也就是说,信源符号之间依赖关系越强,平均每信源符号之间依赖关系越强,平均每个符号提供的信息量就越小。个符号提供的信息量就越小。每个符号提供的平均自信息量随着符号间的依赖关系长度的增加而减少。为此,我们引进信源的冗余度(也叫剩余度或多余度)信源的冗余度(也叫剩余度或多余度)来衡量信源的相关性程度衡量信源的相关性程度。对于一般平稳信源来说,极限熵为H(X),这就是说,如果我们要传送这一信源的信息,理论上来说只需要有传送H(X)的手段即可。但实际上我们对它的概率分布不能完全掌握,如
3、果把它近似成m阶马尔可夫信源,则可以用能传送Hm(X)的手段去传送具有H(X)的信源,当然这里面就不太经济。定义:定义:则冗余度为则冗余度为 信源的冗余度能够很好地反映信源输出的符号序列中符号之间依赖关系的强弱。冗余度越大冗余度越大,表示信源的实际熵越小信源的实际熵越小,表明信源符号之间的依赖关系越强,即符号符号之间的记忆长度越长之间的记忆长度越长;反之,冗余度越小冗余度越小,表明信源符号之间信源符号之间的依赖关系越弱的依赖关系越弱,即符号之间的记忆长度越符号之间的记忆长度越短。短。当冗余度等于零时,信源的熵就等于极大熵H0,表明信源符号之间不但统计独立无记忆,而且各符号还是等概分布。因此,冗
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信源 相关性 剩余

限制150内