信息理论基础 第二章信息的度量PPT讲稿.ppt
《信息理论基础 第二章信息的度量PPT讲稿.ppt》由会员分享,可在线阅读,更多相关《信息理论基础 第二章信息的度量PPT讲稿.ppt(99页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、信息理论基础 第二章 信息的度量第1页,共99页,编辑于2022年,星期四一一.单符号离散信源单符号离散信源 1.1.定义定义 如果信源发出的消息是离散的符号或数字,并且一如果信源发出的消息是离散的符号或数字,并且一如果信源发出的消息是离散的符号或数字,并且一如果信源发出的消息是离散的符号或数字,并且一个符号代表一条完整的消息,则称这种信源为单符号信源。个符号代表一条完整的消息,则称这种信源为单符号信源。个符号代表一条完整的消息,则称这种信源为单符号信源。个符号代表一条完整的消息,则称这种信源为单符号信源。2.2.数学模型数学模型第2页,共99页,编辑于2022年,星期四信源发送符号信源发送符
2、号信源发送符号信源发送符号a ai i的自信息量的自信息量的自信息量的自信息量I(ai),(,(i=1,2,=1,2,r),r)I(ai)=收到收到收到收到ai 前前前前,信宿对信源发送符号信宿对信源发送符号信宿对信源发送符号信宿对信源发送符号ai 的不确定性的不确定性的不确定性的不确定性-信源发送单个符号信源发送单个符号信源发送单个符号信源发送单个符号所携带的所携带的所携带的所携带的的信息量的信息量的信息量的信息量信息量的度量转化为对不确定性的度量信息量的度量转化为对不确定性的度量二二.自信息量自信息量 第3页,共99页,编辑于2022年,星期四I(ai)必须满足以下四个公理性条件必须满足以
3、下四个公理性条件:1.1.1.1.信源发送符号信源发送符号信源发送符号信源发送符号a ai i和和和和a aj j的先验概率分别为的先验概率分别为的先验概率分别为的先验概率分别为p p(a ai i)和和和和p p(a aj j),),如果如果如果如果00p p(a ai i)p p(a aj j)1)1,则则则则2.2.2.2.信源发送符号信源发送符号信源发送符号信源发送符号a ai i的先验概率的先验概率的先验概率的先验概率p p(a ai i)=0)=0,则则则则3.3.3.3.信源发送符号信源发送符号信源发送符号信源发送符号a ai i的先验概率的先验概率的先验概率的先验概率p p(a
4、 ai i)=1)=1,则则则则4.4.4.4.设有两个独立信源设有两个独立信源设有两个独立信源设有两个独立信源X X X X和和和和Y,Y,Y,Y,信源信源信源信源X X X X发送符号发送符号发送符号发送符号a ai i的先验概率为的先验概率为的先验概率为的先验概率为p p(a ai i),),信源信源信源信源Y Y Y Y发送符号发送符号发送符号发送符号a aj j的先验概率为的先验概率为的先验概率为的先验概率为p p(a aj j),),符号符号符号符号a ai i 和和a aj j的联合消息的联合消息的联合消息的联合消息(a ai ia aj j)的先验概的先验概的先验概的先验概率为
5、率为率为率为p p(a(ai ia aj j),则则则则第4页,共99页,编辑于2022年,星期四I(ai)的具体表达式的具体表达式:又名又名概率信息概率信息单位单位:以以以以2 2 2 2为底为底为底为底,单位为比特单位为比特单位为比特单位为比特以以以以e e e e为底为底为底为底,单位为奈特单位为奈特单位为奈特单位为奈特以以以以10101010为底为底为底为底,单位为哈特莱单位为哈特莱单位为哈特莱单位为哈特莱自信息量自信息量在历史上第一次使信息的度量成为可能,成为推动信在历史上第一次使信息的度量成为可能,成为推动信在历史上第一次使信息的度量成为可能,成为推动信在历史上第一次使信息的度量成
6、为可能,成为推动信息论发展的基石。息论发展的基石。息论发展的基石。息论发展的基石。第5页,共99页,编辑于2022年,星期四例例2-12-1:有有有有12121212个球,只有一个是非标重球,问是否存在用个球,只有一个是非标重球,问是否存在用个球,只有一个是非标重球,问是否存在用个球,只有一个是非标重球,问是否存在用天平称天平称天平称天平称3 3 3 3次必然找到该球的方法?次必然找到该球的方法?次必然找到该球的方法?次必然找到该球的方法?(从信息的角度解决从信息的角度解决从信息的角度解决从信息的角度解决)解:解:天平的状态有三种:天平的状态有三种:天平的状态有三种:天平的状态有三种:平衡、左
7、轻、左重平衡、左轻、左重平衡、左轻、左重平衡、左轻、左重 每称一次消除一种状态,则带来的信息量为每称一次消除一种状态,则带来的信息量为每称一次消除一种状态,则带来的信息量为每称一次消除一种状态,则带来的信息量为log3log3 则称则称则称则称3 3 3 3次后,带来的信息量为次后,带来的信息量为次后,带来的信息量为次后,带来的信息量为3log3=log273log3=log27 结论结论:而一个非标球的携带的信息量为而一个非标球的携带的信息量为而一个非标球的携带的信息量为而一个非标球的携带的信息量为可见:可见:信息的度量是为了找到解决问题的方法,信息的度量是为了找到解决问题的方法,信息的度量
8、是为了找到解决问题的方法,信息的度量是为了找到解决问题的方法,而不是纯粹度量信息的大小而不是纯粹度量信息的大小而不是纯粹度量信息的大小而不是纯粹度量信息的大小第6页,共99页,编辑于2022年,星期四三三.离散熵离散熵 请问请问:能否用自信息量作为信源的总体信息测度呢能否用自信息量作为信源的总体信息测度呢能否用自信息量作为信源的总体信息测度呢能否用自信息量作为信源的总体信息测度呢?从定性的角度可知:三个信源不确定性大小为从定性的角度可知:三个信源不确定性大小为从定性的角度可知:三个信源不确定性大小为从定性的角度可知:三个信源不确定性大小为XYZXYH(Y)H(X)H(Z)H(Y)H(X)H(Z
9、)H(Y)H(X)H(Z)H(Y)H(X)结论:结论:X X X X、Y Y Y Y、Z Z Z Z熵的大小关系与熵的大小关系与熵的大小关系与熵的大小关系与X X X X、Y Y Y Y、Z Z Z Z 不确定性的大小关不确定性的大小关不确定性的大小关不确定性的大小关系符合,说明熵的确可以作为信源的总体信息侧度系符合,说明熵的确可以作为信源的总体信息侧度系符合,说明熵的确可以作为信源的总体信息侧度系符合,说明熵的确可以作为信源的总体信息侧度第9页,共99页,编辑于2022年,星期四信息熵的物理意义信息熵的物理意义请问:请问:由熵的推导过程看,熵具有什么样的物理意义呢?由熵的推导过程看,熵具有什
10、么样的物理意义呢?由熵的推导过程看,熵具有什么样的物理意义呢?由熵的推导过程看,熵具有什么样的物理意义呢?3.3.3.3.反映随机变量反映随机变量反映随机变量反映随机变量X X X X的随机性的随机性的随机性的随机性2.2.2.2.表示信源输出前,信源的平均不确定度表示信源输出前,信源的平均不确定度表示信源输出前,信源的平均不确定度表示信源输出前,信源的平均不确定度1.1.1.1.表示信源输出后,每个离散消息所提供的平均信息量表示信源输出后,每个离散消息所提供的平均信息量表示信源输出后,每个离散消息所提供的平均信息量表示信源输出后,每个离散消息所提供的平均信息量熵还可记为熵还可记为H(P)或或
11、H(p1,p2,pr)第10页,共99页,编辑于2022年,星期四设离散无记忆信源设离散无记忆信源设离散无记忆信源设离散无记忆信源 其发生的消息为:其发生的消息为:其发生的消息为:其发生的消息为:(202120130213001203210110321010021032011223210202120130213001203210110321010021032011223210202120130213001203210110321010021032011223210202120130213001203210110321010021032011223210)求求求求(1 1 1 1)此消息的自信息
12、量。)此消息的自信息量。)此消息的自信息量。)此消息的自信息量。(2 2 2 2)在此消息中平均每个符号携带的信息量。)在此消息中平均每个符号携带的信息量。)在此消息中平均每个符号携带的信息量。)在此消息中平均每个符号携带的信息量。例例例例2-22-22-22-2第11页,共99页,编辑于2022年,星期四解:解:(1 1)消息的自信息量就是等于消息中各个符号的自信息消息的自信息量就是等于消息中各个符号的自信息消息的自信息量就是等于消息中各个符号的自信息消息的自信息量就是等于消息中各个符号的自信息量之和量之和量之和量之和。根据题意可得:。根据题意可得:此消息中共有此消息中共有1414个个“0
13、0”符号,符号,1313个个“1 1”符号,符号,1212个个“2 2”符号,符号,6 6个个“3 3”符号,则得到的符号,则得到的自信息量是:自信息量是:自信息量是:自信息量是:第12页,共99页,编辑于2022年,星期四(2 2 2 2)此消息中平均每个符号携带的信息量为:)此消息中平均每个符号携带的信息量为:)此消息中平均每个符号携带的信息量为:)此消息中平均每个符号携带的信息量为:原因原因:(2)(2)(2)(2)问的值问的值问的值问的值是该特定消息中平均每个符号携带的信息量,而是该特定消息中平均每个符号携带的信息量,而信息熵是离散无记忆信源平均每个符号携带的信息量,是统计平均值。信息
14、熵是离散无记忆信源平均每个符号携带的信息量,是统计平均值。信源的信息熵信源的信息熵信源的信息熵信源的信息熵:结论结论:(2)(2)(2)(2)问的值与信源的信息熵问的值与信源的信息熵问的值与信源的信息熵问的值与信源的信息熵不完全相等不完全相等第13页,共99页,编辑于2022年,星期四例例 熵在语音端点检测中的应用熵在语音端点检测中的应用熵在语音端点检测中的应用熵在语音端点检测中的应用(本人的实际工作)本人的实际工作)本人的实际工作)本人的实际工作)纯净语音波形纯净语音波形纯净语音波形纯净语音波形带噪语音波形带噪语音波形带噪语音波形带噪语音波形谱熵加能量参数谱熵加能量参数谱熵加能量参数谱熵加能
15、量参数分带谱熵加能量参数分带谱熵加能量参数分带谱熵加能量参数分带谱熵加能量参数第14页,共99页,编辑于2022年,星期四四四.熵的性质熵的性质 1.1.对称性对称性 ,各各各各p pn n的顺序变化的顺序变化的顺序变化的顺序变化,不影不影不影不影响熵值响熵值响熵值响熵值各自的熵为各自的熵为:H(X)=H(Y)=H(Z)=1.4592 bit/symbol对称性说明对称性说明:-信源的信息熵只与信源的概率空间的总体结构有关信源的信息熵只与信源的概率空间的总体结构有关信源的信息熵只与信源的概率空间的总体结构有关信源的信息熵只与信源的概率空间的总体结构有关,与具体内容与具体内容与具体内容与具体内容
16、无关无关无关无关例例:第15页,共99页,编辑于2022年,星期四2.2.非负性非负性证明:证明:提问提问:何时等式成立何时等式成立何时等式成立何时等式成立?非负性表明:非负性表明:从总体看,信源在发送符号以前,总存在一定的不确定从总体看,信源在发送符号以前,总存在一定的不确定从总体看,信源在发送符号以前,总存在一定的不确定从总体看,信源在发送符号以前,总存在一定的不确定性;在发符号后,总可提供一定的信息量性;在发符号后,总可提供一定的信息量性;在发符号后,总可提供一定的信息量性;在发符号后,总可提供一定的信息量第16页,共99页,编辑于2022年,星期四则则或或又又只有某一个只有某一个,而其
17、他,而其他当且仅当在当且仅当在 中各项为零时等号成立,中各项为零时等号成立,即即 第17页,共99页,编辑于2022年,星期四若若若若信信信信源源源源符符符符号号号号集集集集中中中中,有有有有一一一一个个个个符符符符号号号号几几几几乎乎乎乎必必必必然然然然出出出出现现现现,其其其其他他他他符符符符号号号号几几几几乎不可能出现,则该信源为一个确知信源,则信息熵等于零乎不可能出现,则该信源为一个确知信源,则信息熵等于零乎不可能出现,则该信源为一个确知信源,则信息熵等于零乎不可能出现,则该信源为一个确知信源,则信息熵等于零,即:即:即:即:3.3.确定性确定性熵函数的确定性表明:熵函数的确定性表明:
18、只有信源的任一个概率分量等于只有信源的任一个概率分量等于只有信源的任一个概率分量等于只有信源的任一个概率分量等于1 1 1 1时,才能使信源信息熵时,才能使信源信息熵时,才能使信源信息熵时,才能使信源信息熵等于零,除此以外的任何情况的信息熵都大于零。等于零,除此以外的任何情况的信息熵都大于零。等于零,除此以外的任何情况的信息熵都大于零。等于零,除此以外的任何情况的信息熵都大于零。对于确知信源,发符号前,不存在不确定性;发符号后,不对于确知信源,发符号前,不存在不确定性;发符号后,不对于确知信源,发符号前,不存在不确定性;发符号后,不对于确知信源,发符号前,不存在不确定性;发符号后,不提供任何信
19、息量。提供任何信息量。提供任何信息量。提供任何信息量。第18页,共99页,编辑于2022年,星期四4.4.上凸性上凸性YX X 0 H X+(1-)Y设有一个多元函数或矢量函数设有一个多元函数或矢量函数设有一个多元函数或矢量函数设有一个多元函数或矢量函数 第19页,共99页,编辑于2022年,星期四证明证明:由于后面两项的数值均大于零,故有:由于后面两项的数值均大于零,故有:由于后面两项的数值均大于零,故有:由于后面两项的数值均大于零,故有:上凸性说明:上凸性说明:熵函数具有极大值熵函数具有极大值熵函数具有极大值熵函数具有极大值取取则则:第20页,共99页,编辑于2022年,星期四5.5.极值
20、性(最大离散熵定理)极值性(最大离散熵定理)H(P)H(P)logr,logr,当且仅当等概分布时等号成立当且仅当等概分布时等号成立当且仅当等概分布时等号成立当且仅当等概分布时等号成立,r r为为为为X X的取值个数的取值个数的取值个数的取值个数证明:证明:证明:证明:按条件极大值的数学求解方法,作辅助函数:按条件极大值的数学求解方法,作辅助函数:按条件极大值的数学求解方法,作辅助函数:按条件极大值的数学求解方法,作辅助函数:其中其中其中其中,为待定常数,对辅助函数中的为待定常数,对辅助函数中的为待定常数,对辅助函数中的为待定常数,对辅助函数中的r r个变量个变量个变量个变量p pi i(i=
21、1,2,r)(i=1,2,r)分别求偏分别求偏分别求偏分别求偏导,并令为零,得导,并令为零,得导,并令为零,得导,并令为零,得r r个稳定方程个稳定方程个稳定方程个稳定方程将上式代入约束条件得:将上式代入约束条件得:将上式代入约束条件得:将上式代入约束条件得:熵函数的最大值为熵函数的最大值为熵函数的最大值为熵函数的最大值为则有:则有:则有:则有:H(P)logr,H(P)logr,当且仅当等概分布时等号成立当且仅当等概分布时等号成立当且仅当等概分布时等号成立当且仅当等概分布时等号成立第21页,共99页,编辑于2022年,星期四熵的极值性说明熵的极值性说明:在所有符号个数相同,而符号的概率分布不
22、同在所有符号个数相同,而符号的概率分布不同在所有符号个数相同,而符号的概率分布不同在所有符号个数相同,而符号的概率分布不同的离散信源中,以先验等概的信源的信息熵最大,的离散信源中,以先验等概的信源的信息熵最大,的离散信源中,以先验等概的信源的信息熵最大,的离散信源中,以先验等概的信源的信息熵最大,其最大值等于信源符号个数其最大值等于信源符号个数其最大值等于信源符号个数其最大值等于信源符号个数r r r r的对数;的对数;的对数;的对数;同时说明同时说明:离散信源信息熵的最大值,只取决于信源符号离散信源信息熵的最大值,只取决于信源符号离散信源信息熵的最大值,只取决于信源符号离散信源信息熵的最大值
23、,只取决于信源符号的个数的个数的个数的个数r r r r,r r r r越大,其信息熵也越大越大,其信息熵也越大越大,其信息熵也越大越大,其信息熵也越大第22页,共99页,编辑于2022年,星期四6.6.扩展性扩展性含含义义:若若若若信信信信源源源源X X有有有有q q个个个个符符符符号号号号,信信信信源源源源Y Y有有有有q+1q+1个个个个符符符符号号号号,两两两两者者者者的的的的差差差差异异异异只只只只多多多多了一个概率接近零的符号,则两信源的熵值是一样的;了一个概率接近零的符号,则两信源的熵值是一样的;了一个概率接近零的符号,则两信源的熵值是一样的;了一个概率接近零的符号,则两信源的熵
24、值是一样的;证明:证明:扩展性说明:扩展性说明:若信源空间中增加某些概率接近于零的信若信源空间中增加某些概率接近于零的信若信源空间中增加某些概率接近于零的信若信源空间中增加某些概率接近于零的信源符号,对信源的熵值的贡献可以忽略不计源符号,对信源的熵值的贡献可以忽略不计源符号,对信源的熵值的贡献可以忽略不计源符号,对信源的熵值的贡献可以忽略不计第23页,共99页,编辑于2022年,星期四提问:提问:在通信的接收端,当接收到符号在通信的接收端,当接收到符号在通信的接收端,当接收到符号在通信的接收端,当接收到符号y y后,对信源发送符号后,对信源发送符号后,对信源发送符号后,对信源发送符号x x到底
25、到底到底到底还存在多大的不确定度呢?或者说在还存在多大的不确定度呢?或者说在还存在多大的不确定度呢?或者说在还存在多大的不确定度呢?或者说在y y已知的条件下,已知的条件下,已知的条件下,已知的条件下,x x发生会带来多发生会带来多发生会带来多发生会带来多大的信息量呢?大的信息量呢?大的信息量呢?大的信息量呢?五五.条件自信息量条件自信息量 事件事件事件事件x x在事件在事件在事件在事件y y给定的条件下的自信息量定义为给定的条件下的自信息量定义为给定的条件下的自信息量定义为给定的条件下的自信息量定义为条件自信息量条件自信息量条件自信息量条件自信息量:含义含义:已知已知已知已知y y后对后对后
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息理论基础 第二章 信息的度量PPT讲稿 信息 理论基础 第二 度量 PPT 讲稿
限制150内