信源与信息熵讲稿.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《信源与信息熵讲稿.ppt》由会员分享,可在线阅读,更多相关《信源与信息熵讲稿.ppt(85页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、信源与信息熵信源与信息熵信源与信息熵信源与信息熵1第一页,讲稿共八十五页哦本章内容本章内容信源的分类及基本的信源数学模型描述、自信息和信息熵的定义及性质、互信息的概念及性质、信源冗余度的描述等。本章重点本章重点理解信源不确定性的含义,熵函数H(X)的性质、平均互信息量的定义、性质,联合信源的联合熵、条件熵,离散平稳信源的信源熵、极限熵等概念和计算方法。了解马尔可夫信源的定义和计算方法。第二页,讲稿共八十五页哦2.1 2.1 信源的描述和分类信源的描述和分类第三页,讲稿共八十五页哦一、香农信息论的基本点一、香农信息论的基本点用随机变量或随机矢量来表示信源用概率论和随机过程的理论来研究信息常用的信
2、息度量方法统计度量。(另有结构度量、语义度量、语用度量和模糊度量等方法。)2.1 2.1 信源的描述和分类信源的描述和分类第四页,讲稿共八十五页哦二、信源的分类二、信源的分类按照信源发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源两大类 信源信源离散信源离散信源连续信源连续信源连连续续信信源源是是指指发发出出在在时时间间和和幅幅度度上上都都是是连连续续分分布布的的连连续续消消息息(模模拟拟消消息息)的的信信源源,如如语语言言、图图像像、图图形形等等都都是是连连续续消息。消息。离离散散信信源源是是指指发发出出在在时时间间和和幅幅度度上上都都是是离离散散分分布布的的离离散散消息的
3、信源,如文字、数字、数据等符号都是离散消息。消息的信源,如文字、数字、数据等符号都是离散消息。5第五页,讲稿共八十五页哦离散信源离散信源离散无记忆信源离散无记忆信源离散有记忆信源离散有记忆信源发出单个符号的无记忆信源发出单个符号的无记忆信源发出符号序列的无记忆信源发出符号序列的无记忆信源发出符号序列的有记忆信源发出符号序列的有记忆信源发出符号序列的马尔可夫信源发出符号序列的马尔可夫信源离散无记忆信源离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。离散有记忆信源离散有记忆信源所发出的各个符号的概率是有关联的。发出单个
4、符号的信源发出单个符号的信源是指信源每次只发出一个符号代表一个消息。发出符号序列的信源发出符号序列的信源是指信源每次发出一组含二个以上符号的符号序列代表一个消息。发出符号序列的有记忆信源发出符号序列的有记忆信源是指用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征。发出符号序列的马尔可夫信源发出符号序列的马尔可夫信源是指某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征。6第六页,讲稿共八十五页哦三、信源的描述l单符号离散信源单符号离散信源定义:一个离散无记忆信源是由定义:一个离散
5、无记忆信源是由n个符号消息组成个符号消息组成的集合:的集合:X=x1,x2xn,这这n个符号消息的概率分布为:个符号消息的概率分布为:称为符号称为符号xi的先验概率,信源数学模型表示为:的先验概率,信源数学模型表示为:称为概率空间,其中称为概率空间,其中7第七页,讲稿共八十五页哦例如:对二进制数字与数据信源例如:对二进制数字与数据信源8第八页,讲稿共八十五页哦l单个连续信源单个连续信源 pX(x)为随机变量为随机变量X的概率密度函数的概率密度函数9第九页,讲稿共八十五页哦概率论知识复习 随机变量随机变量X和和Y分别取值于集合分别取值于集合 和和 X发生发生xi和和Y发生发生yj的概率的概率为为
6、p(xi)和和p(yj),它们一定满足,它们一定满足0 p(xi),p(yj)1以及以及和和。如果考察。如果考察X和和Y同时发生同时发生xi和和yj的概率,则二者构成的概率,则二者构成联合随机变量联合随机变量XY,取值于集合,取值于集合xiyj|i=1,2,n,j=1,2,m,元素,元素xiyj发生发生的概率称为的概率称为联合概率联合概率,用,用p(xi yj)表示。表示。10第十页,讲稿共八十五页哦概率论知识复习如如X发生发生xi以后,以后,Y又发生又发生yj的的条件概率为条件概率为p(yj/xi),代表代表xi已知的情况下,又出现已知的情况下,又出现yj的概率。当的概率。当xi不同不同时,
7、即使发生同样的时,即使发生同样的yj,其条件概率也不同,说明,其条件概率也不同,说明xi对对yj的影响。而的影响。而p(yj)则是对则是对xi一无所知情况下,一无所知情况下,yj发生的概率,有时相应地称为发生的概率,有时相应地称为p(yj)为为yj的无条件概的无条件概率。同理,率。同理,yj已知的条件下已知的条件下xi的的条件概率记为条件概率记为p(xi/yj)。相应地,相应地,p(xi)称为称为xi的无条件概率。的无条件概率。11第十一页,讲稿共八十五页哦概率论知识复习12第十二页,讲稿共八十五页哦概率论知识复习 1 1)条件概率)条件概率 2 2)联合概率)联合概率13第十三页,讲稿共八十
8、五页哦概率论知识复习 3)3)全概率:全概率:4)Bayes4)Bayes公式公式:14第十四页,讲稿共八十五页哦2.2 2.2 离散信源熵和互信息离散信源熵和互信息15第十五页,讲稿共八十五页哦2.2 离散信源熵和互信息信信源源发发出出消消息息,经经过过信信道道,到到达达信信宿宿,信信宿宿收收到到消消息息,获获得得了了信信息息,这这个个过过程程就就称称作作通通信信。我我们们现现在在来来研研究究通通信信的的源源头头,也也就就是是信信源源的的特特性性。那那么么实实际际有有用用的的信信源源应应该该具具有有什什么么特特性性呢呢?我我们们认认为为它它应应该该具具有有不不确确定定性性(不不肯肯定定性性)
9、。信信源源至至少少应应该该包包含含两两种种不不同同的的消消息息,例例如如两两元元信信元元(包包含含0、1),而而信信宿宿是是知知道道信信元元发发送送(0、1)的的,但但是是它它就就是是不不知知道道在在具具体体的的某某一一时时刻刻,信信源源发发送送的的是是哪个消息。这是显然的,如果它知道,就不需要通信了!哪个消息。这是显然的,如果它知道,就不需要通信了!一、一、不确定性不确定性16第十六页,讲稿共八十五页哦【例例2.1】某二元信源(含有两个不同消息的信源)某二元信源(含有两个不同消息的信源)发送发送1的概率的概率0.99,0的概率的概率0.01,信宿仅凭猜测就可以简单的认为信宿仅凭猜测就可以简单
10、的认为信源发出的消息始终都是信源发出的消息始终都是1,即使如此,猜错的概率仅为百分,即使如此,猜错的概率仅为百分之一。这说明在这种情况下,信源基本上在发送之一。这说明在这种情况下,信源基本上在发送1,信源的不,信源的不确定性很小。确定性很小。【例例2.2】某二元信源某二元信源发送发送1和和0的概率相等的概率相等,均为,均为0.5,这时,这时信宿不依赖通信仅凭猜测的话,猜错的概率高达信宿不依赖通信仅凭猜测的话,猜错的概率高达50%。这说。这说明在这种情况下,猜测信源发送什么消息就困难了,因为信源明在这种情况下,猜测信源发送什么消息就困难了,因为信源发送什么消息相当不确定。发送什么消息相当不确定。
11、17第十七页,讲稿共八十五页哦【例例2.3】如果信源具有更多的消息,例如发如果信源具有更多的消息,例如发10个个数字数字0,1.9(例如采用例如采用4位十进制树的中文电报位十进制树的中文电报),而且假定这是个消息是等概率分布的,均为而且假定这是个消息是等概率分布的,均为0.1,这时信宿仅凭猜测的话,就更难猜了。因为信源这时信宿仅凭猜测的话,就更难猜了。因为信源发送什么消息更加不确定。发送什么消息更加不确定。【例例2.4】现在讨论一种极端的情况,信源只发送现在讨论一种极端的情况,信源只发送一种消息,即永远只发送一种消息,即永远只发送1或者只发送或者只发送0,从这样,从这样的信源中我们就不能从中获
12、取任何信息,也就是的信源中我们就不能从中获取任何信息,也就是说信源的不确定性为说信源的不确定性为0。18第十八页,讲稿共八十五页哦信源如果没有不确定性,那么就没有实用价值。不确定信源如果没有不确定性,那么就没有实用价值。不确定度和发送的消息数目和发送符号的概率有关。为了确切的度和发送的消息数目和发送符号的概率有关。为了确切的描述信源,我们采用概率空间来描述信源。描述信源,我们采用概率空间来描述信源。离散信源离散信源:若一类信源输出的消息常常是以一个个符:若一类信源输出的消息常常是以一个个符号的形式出现,例如文字、字母等,这些符号的取值是号的形式出现,例如文字、字母等,这些符号的取值是有限的或可
13、数的,这样的信源称为离散信源。比如(有限的或可数的,这样的信源称为离散信源。比如(0、1)二元信元,它的消息是以一定的概率来出现的,所以)二元信元,它的消息是以一定的概率来出现的,所以可以采用概率空间来描述。可以采用概率空间来描述。若信源的输出是随机变量若信源的输出是随机变量X,其出现概率为,其出现概率为P(X),则它们,则它们所构成的集合,称为信源的所构成的集合,称为信源的概率空间概率空间或简称为或简称为信源空间信源空间。19第十九页,讲稿共八十五页哦1)定义:定义:一个符号消息一个符号消息xi 的的自信息量自信息量为其发生概率的对数的为其发生概率的对数的负数,并记为负数,并记为I(xi);
14、I(xi)=-logp(xi)当当p(xi)=0,则,则I(xi);当;当p(xi)=1,则,则I(xi)=0.2)自信息量的单位自信息量的单位自信息量的单位与所用对数的底有关:自信息量的单位与所用对数的底有关:1对数的底是对数的底是2时,单位为时,单位为比特比特bit(binaryunit)2对数的底是对数的底是e(自然对数自然对数)时,单位为时,单位为奈特奈特nat(natureunit)二、自信息量二、自信息量20第二十页,讲稿共八十五页哦3对数的底是对数的底是10(常用对数常用对数)时,单位为时,单位为笛特或哈特笛特或哈特det(decimalunit)orHart(Hartley)三
15、种信息量单位之间的换算:三种信息量单位之间的换算:1det=log2103.322bit1bit=ln20.6931nat1bit=lg20.3010det1nat=log2e1.4427bit在在信信息息论论中中常常用用以以2为为底底的的对对数数,为为了了书书写写方方便便,以以后后将将log2书书写写为为log,因因其其单单位位为为比比特特bit,不不会会产产生生混混淆淆;注注意意有些文献将有些文献将log2书写为书写为lb。21第二十一页,讲稿共八十五页哦【例例2.5】一个一个1,0等概的二进制随机序列,等概的二进制随机序列,求任一码元的自信息量。求任一码元的自信息量。解:任一码元不是为解
16、:任一码元不是为0就是为就是为1因为因为P(0)=P(1)=1/2所以所以I(0)=I(1)=lb(1/2)=1(bit)22第二十二页,讲稿共八十五页哦【例例2.6】对于对于2n进制的数字序列进制的数字序列,假设每一符号假设每一符号的出现完全随机且概率相等,求任一符号的自的出现完全随机且概率相等,求任一符号的自信息量。信息量。解:设解:设2n进制数字序列任一码元进制数字序列任一码元xi的出现概率为的出现概率为p(xi),根据题意,根据题意,p(xi)=1/2nI(xi)=lb(1/2n)=n(bit)事件的自信息量只与其概率有关,而与它的取值事件的自信息量只与其概率有关,而与它的取值无关。无
17、关。23第二十三页,讲稿共八十五页哦3)自信息量的含义自信息量的含义是是随随机机量量、根根据据单单个个符符号号消消息息的的先先验验概概率率确确定定其其信信息息量量和和不不确确定定度度。是是该该符符号号出出现现后后,提提供供给收信者的信息量。给收信者的信息量。4)随机事件的不确定度:随机事件的不确定度:不不确确定定度度在在数数量量,单单位位与与自自信信息息量量相相同同,含含义义不不同同。具具有有某某种种概概率率的的信信源源符符号号在在发发生生之之前前,存存在在不不确定度,不确定度表征该符号的特性。确定度,不确定度表征该符号的特性。24第二十四页,讲稿共八十五页哦5)自信息量自信息量 I(xi)的
18、特性的特性1事事件件xi 先先验验概概率率p(xi)=1(确确定定事事件件),则则不不存存在在不不确确定定性性,同时不会带来信息量;同时不会带来信息量;I(xi)=0。2事事件件xi 先先验验概概率率p(xi)=0(不不可可能能事事件件),则则存存在在不不确确定定性应为无穷大,同时会带来无穷的信息量;性应为无穷大,同时会带来无穷的信息量;I(xi)3非非负负性性4单单调调性性若若有有两两个个事事件件xi,xj,其其先先验验概概率率为为p(xi)p(xj),则则事事件件xi 比比事事件件xj 有有更更大大的的不不确确定定性性,同同时时会会带带来来更更多多的信息量;的信息量;I(xi)I(xj)5
19、可可加加性性两两个个统统计计独独立立事事件件的的联联合合自自信信息息量量应应等等于于它它们各自信息量之和们各自信息量之和;则则I(x y )=I(x)I(y)25第二十五页,讲稿共八十五页哦6)联合自信息量与条件自信息量联合自信息量与条件自信息量1联合自信息量联合自信息量定义定义:若有两个消息:若有两个消息xi,yj同时出现,用联合概率同时出现,用联合概率p(xiyj)表示,联合自信息量为:表示,联合自信息量为:I(xiyj)=logp(xiyj)当当X和和Y相互独立时,相互独立时,p(xiyj)=p(xi)p(yj),代入到前式就有:,代入到前式就有:I(xiyj)=-log2p(xi)-l
20、og2p(yj)=I(xi)+I(yj)说明两个随机事件相互独立时,同时发生得到的自信息说明两个随机事件相互独立时,同时发生得到的自信息量,等于这两个随机事件各自独立发生得到的自信息量之量,等于这两个随机事件各自独立发生得到的自信息量之和。和。26第二十六页,讲稿共八十五页哦2条件自信息量条件自信息量定定义义:在在事事件件yj 出出现现条条件件下下,xi发发生生的的条条件件概概率率为为p(xi|yj),则,则xi的条件自信息量为:的条件自信息量为:I(x i|yj)=logp(xi|yj)由由于于随随机机事事件件(消消息息)的的概概率率在在01范范围围内内,所所以以联联合合信信息息量量和和条条
21、件件自自信信息息量量也也满满足足非非负负和和单调递减性。单调递减性。27第二十七页,讲稿共八十五页哦联合自信息、条件自信息与自信息间联合自信息、条件自信息与自信息间的关系的关系I(xiyj)=-log2p(xi)p(yj|xi)=I(xi)+I(yj|xi)=-log2p(yj)p(xi|yj)=I(yj)+I(xi|yj)28第二十八页,讲稿共八十五页哦作作为为信信源源总总体体信信息息测测度度的的量量应应是是信信源源各各个个不不同同符符号号xi(i=1,2,N)所所包包含含的的自自信信息息量量I(xi)(i=1,2,N)在在信信源源空空间间P(X)=p(x1),p(x2),p(xi),p(x
22、N)中的统计平均值。中的统计平均值。三、离散信源熵三、离散信源熵29第二十九页,讲稿共八十五页哦【例例2.7】一个布袋内放一个布袋内放100个球,其中个球,其中80个球个球为红色,为红色,20球为白色。若随机摸取一个球,猜球为白色。若随机摸取一个球,猜测其颜色,求平均摸取一次所获得的(自)信测其颜色,求平均摸取一次所获得的(自)信息量。息量。解:随机事件的概率空间为解:随机事件的概率空间为30第三十页,讲稿共八十五页哦当被告知摸出红球的信息量是当被告知摸出红球的信息量是当被告知摸出白球的信息量是当被告知摸出白球的信息量是如果每次摸出一个球后又放回袋中,再进行下如果每次摸出一个球后又放回袋中,再
23、进行下一次摸取且如此摸取一次摸取且如此摸取n次,那么红球出现的次数次,那么红球出现的次数为为np(x1),白球出现的次数为,白球出现的次数为np(x2)。随机摸取。随机摸取n次后总共所获得的信息量为次后总共所获得的信息量为31第三十一页,讲稿共八十五页哦而平均随机摸取而平均随机摸取1次所获得的信息量为次所获得的信息量为32第三十二页,讲稿共八十五页哦1)定义定义信息源的信息源的平均不确定度平均不确定度为信源中各个符号为信源中各个符号不确定不确定度的度的数学期望数学期望,记作,记作H(X)其中其中 H(X)又称为信源又称为信源X的的信源熵。信源熵。33第三十三页,讲稿共八十五页哦2)H(X)的含
24、义的含义 1表示的是信源的平均不确定度。表示的是信源的平均不确定度。2表示信源表示信源 X 发出一个符号提供的平均信息量。发出一个符号提供的平均信息量。3是是统统计计量量、数数学学期期望望(统统计计平平均均)、各各个个符符号号平平均均不不确确定度和平均信息量。定度和平均信息量。3)信源熵单位:信源熵单位:二进制二进制:bit/:bit/信源符号,或信源符号,或bit/bit/信源序列信源序列 十进制十进制:det/:det/信源符号,或信源符号,或det/det/信源序列信源序列 e e进制进制:nat/:nat/信源符号,或信源符号,或nat/nat/信源序列信源序列34第三十四页,讲稿共八
25、十五页哦4)信源熵的三种特殊情况信源熵的三种特殊情况1当当 p(xi)=0时(时(p(xi)0),则),则p(xi)logp(xi)=02信信源源X=x1,x2 xn,若若其其中中xi 的的概概率率p(xi)=1则其余则其余xj 的的p(xj)=0,因为,因为则则H(X)=0bit/信源符号信源符号3 当当信信源源中中X所所有有n个个符符号号均均有有相相同同的的概概率率 p(xi)=1/n,则则H(X)=-(1/n)log(1/n)=lognbit/信源符号信源符号35第三十五页,讲稿共八十五页哦【例例2.8】设信源符号集设信源符号集X=x1,x2,x3,每个符号发生的概,每个符号发生的概率分
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信源 信息 讲稿
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内