信源与信息熵.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《信源与信息熵.ppt》由会员分享,可在线阅读,更多相关《信源与信息熵.ppt(85页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、1现在学习的是第1页,共85页信源的分类及基本的信源数学模型描述、自信息和信息熵的定义及性质、互信息的概念及性质、信源冗余度的描述等。理解信源不确定性的含义,熵函数H(X)的性质、平均互信息量的定义、性质,联合信源的联合熵、条件熵,离散平稳信源的信源熵、极限熵等概念和计算方法。了解马尔可夫信源的定义和计算方法。现在学习的是第2页,共85页现在学习的是第3页,共85页 用随机变量或随机矢量来表示信源 用概率论和随机过程的理论来研究信息 常用的信息度量方法统计度量。 (另有结构度量、语义度量、语用度量和模糊度量等方法。)现在学习的是第4页,共85页按照信源发出的消息在时间上和幅度上的分布情况可将信
2、源分成离散信源和连续信源两大类 信源信源离散信源离散信源连续信源连续信源连续信源是连续信源是指发出在时间和幅度上都是连续分布的连续消息指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。 离散信源是离散信源是指发出在时间和幅度上都是离散分布的离指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消散消息的信源,如文字、数字、数据等符号都是离散消息。息。 5现在学习的是第5页,共85页离散信源离散信源离散无记忆信源离散无记忆信源离散有记忆信源离散有记忆信源发出单个符号的无
3、记忆信源发出单个符号的无记忆信源发出符号序列的无记忆信源发出符号序列的无记忆信源发出符号序列的有记忆信源发出符号序列的有记忆信源发出符号序列的马尔可夫信源发出符号序列的马尔可夫信源离散无记忆信源离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。离散有记忆信源离散有记忆信源所发出的各个符号的概率是有关联的。发出单个符号的信源发出单个符号的信源是指信源每次只发出一个符号代表一个消息。发出符号序列的信源发出符号序列的信源是指信源每次发出一组含二个以上符号的符号序列代表一个消息。发出符号序列的有记忆信源发出符号序列的有记忆信
4、源是指用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征。 发出符号序列的马尔可夫信源发出符号序列的马尔可夫信源是指某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征。6现在学习的是第6页,共85页l单符号离散信源单符号离散信源 定义:一个离散无记忆信源是由定义:一个离散无记忆信源是由n个符号消息组成个符号消息组成的集合:的集合:X= x1,x2 xn , 这这n个符号消息的概率分布为:个符号消息的概率分布为: 称为符号称为符号xi的先验概率,信源数学模型表示为:的先验概率,信源数
5、学模型表示为: 称为概率空间,其中称为概率空间,其中)(,),(),(21nxpxpxpp )()()()(321321nnxpxpxpxpxxxxPX11( )0,( )1niiip xp x7现在学习的是第7页,共85页 例如:对二进制数字与数据信源例如:对二进制数字与数据信源2/ 12/ 1101010ppPX8现在学习的是第8页,共85页l 单个连续信源单个连续信源 pX(x)为随机变量为随机变量X的概率密度函数的概率密度函数)(),(xpbaPXX1)(baXxp9现在学习的是第9页,共85页 随机变量随机变量X和和Y分别取值于集合分别取值于集合 和和 X发生发生xi和和Y发生发生y
6、j的概率的概率为为p(xi)和和p(yj),它们一定满足,它们一定满足0 p(xi) ,p(yj ) 1以及以及和和 。如果考察如果考察X和和Y同时发生同时发生xi和和yj的概率,的概率,则二者构成联合随机变量则二者构成联合随机变量XY,取值于集,取值于集合合xiyj|i=1,2,n,j=1,2,m,元素,元素xiyj发发生的概率称为生的概率称为联合概率联合概率,用,用p(xi yj)表示表示。nxxx,21nyyy,211)(1niixp1)(1njjyp10现在学习的是第10页,共85页 如如X发生发生xi以后,以后,Y又发生又发生yj的的条件概率为条件概率为p(yj /xi),代表代表x
7、i已知的情况下,又出现已知的情况下,又出现yj的概率。当的概率。当xi不同时不同时,即使发生同样的,即使发生同样的yj ,其条件概率也不同,说明,其条件概率也不同,说明xi对对yj的影响。而的影响。而p(yj)则是对则是对xi一无所知情况下,一无所知情况下, yj发生发生的概率,有时相应地称为的概率,有时相应地称为p(yj)为为yj的无条件概率。的无条件概率。同理,同理, yj 已知的条件下已知的条件下xi 的的条件概率记为条件概率记为p(xi / yj)。相应地,相应地, p(xi)称为称为xi的无条件概率。的无条件概率。11现在学习的是第11页,共85页111111110( ), (),
8、(/), (/), ()1( )1,()1,(/)1,(/)1,()1()(),()( )ijijjiijnmnijijijimmnjiijjjinmijjijiijp xp yp xyp yxp x yp xp yp xyp yxp x yp x yp yp x yp x基本性质:12现在学习的是第12页,共85页 1 1)条件概率)条件概率 2 2)联合概率)联合概率)()()|(,)()()|(ijiijjjijixpyxpxypypyxpyxp)|()()(),|()()(ijijijijjixypxpyxpyxpypyxp13现在学习的是第13页,共85页 3)3)全概率:全概率:
9、4)Bayes4)Bayes公式公式: :mjjimjjijinijiniijijyxpyxpypxpyxpxypxpyp1111)()|()()()()|()()()()|()()|()()|()()|(ijijijjijijixpyxpypxypypxypxpyxp14现在学习的是第14页,共85页15现在学习的是第15页,共85页 信源发出消息,经过信道,到达信宿,信宿收到消信源发出消息,经过信道,到达信宿,信宿收到消息,获得了信息,这个过程就称作通信。我们现在来研息,获得了信息,这个过程就称作通信。我们现在来研究通信的源头,也就是信源的特性。那么实际有用的信究通信的源头,也就是信源的特
10、性。那么实际有用的信源应该具有什么特性呢?我们认为它应该具有不确定性源应该具有什么特性呢?我们认为它应该具有不确定性(不肯定性)。信源至少应该包含两种不同的消息,例(不肯定性)。信源至少应该包含两种不同的消息,例如两元信元(包含如两元信元(包含0、1),而信宿是知道信元发送(),而信宿是知道信元发送(0、1)的,但是它就是不知道在具体的某一时刻,信源发送的是)的,但是它就是不知道在具体的某一时刻,信源发送的是哪个消息。这是显然的,如果它知道,就不需要通信了!哪个消息。这是显然的,如果它知道,就不需要通信了! 16现在学习的是第16页,共85页 【例例2.1 】某二元信源(含有两个不同消息的信源
11、)某二元信源(含有两个不同消息的信源)发送发送1的概的概率率0.99,0的概率的概率0.01,信宿仅凭猜测就可以简单的认为信源发信宿仅凭猜测就可以简单的认为信源发出的消息始终都是出的消息始终都是1,即使如此,猜错的概率仅为百分之一。这,即使如此,猜错的概率仅为百分之一。这说明在这种情况下,信源基本上在发送说明在这种情况下,信源基本上在发送1,信源的不确定性很小,信源的不确定性很小。 【例例2.2 】某二元信源某二元信源发送发送1和和0的概率相等的概率相等,均为,均为0.5,这时,这时信宿不依赖通信仅凭猜测的话,猜错的概率高达信宿不依赖通信仅凭猜测的话,猜错的概率高达50%。这说明在这种情况下,
12、猜测信源发送什么消息就困难了,这说明在这种情况下,猜测信源发送什么消息就困难了,因为信源发送什么消息相当不确定。因为信源发送什么消息相当不确定。 17现在学习的是第17页,共85页 【例例2.3 】如果信源具有更多的消息,例如发如果信源具有更多的消息,例如发10个个数字数字0,1.9(例如采用例如采用4位十进制树的中文电报位十进制树的中文电报),而且假定这是个消息是等概率分布的,均为而且假定这是个消息是等概率分布的,均为0.1,这时信宿仅凭猜测的话,就更难猜了。因为信源发送这时信宿仅凭猜测的话,就更难猜了。因为信源发送什么消息更加不确定。什么消息更加不确定。 【例例2.4 】现在讨论一种极端的
13、情况,信源只发送一种现在讨论一种极端的情况,信源只发送一种消息,即永远只发送消息,即永远只发送1或者只发送或者只发送0,从这样的信源,从这样的信源中我们就不能从中获取任何信息,也就是说信源中我们就不能从中获取任何信息,也就是说信源的不确定性为的不确定性为0。 18现在学习的是第18页,共85页 信源如果没有不确定性,那么就没有实用价值。不确定信源如果没有不确定性,那么就没有实用价值。不确定度和发送的消息数目和发送符号的概率有关。为了确切的度和发送的消息数目和发送符号的概率有关。为了确切的描述信源,我们采用概率空间来描述信源。描述信源,我们采用概率空间来描述信源。 离散信源离散信源:若一类信源输
14、出的消息常常是以一个个符号:若一类信源输出的消息常常是以一个个符号的形式出现,例如文字、字母等,这些符号的取值是有的形式出现,例如文字、字母等,这些符号的取值是有限的或可数的,这样的信源称为离散信源。比如(限的或可数的,这样的信源称为离散信源。比如(0、1)二元信元,它的消息是以一定的概率来出现的,所以可以采用)二元信元,它的消息是以一定的概率来出现的,所以可以采用概率空间来描述。概率空间来描述。 若信源的输出是随机变量若信源的输出是随机变量X,其出现概率为,其出现概率为P(X),则它们所,则它们所构成的集合,称为信源的构成的集合,称为信源的概率空间概率空间或简称为或简称为信源空间信源空间。
15、19现在学习的是第19页,共85页 1) 定义:定义:一个符号消息一个符号消息 xi 的的自信息量自信息量为其发生概率的对数的为其发生概率的对数的负数,并记为负数,并记为 I(xi); I (xi) = -log p(xi) 当当p(xi)=0,则,则 I(xi);当;当p(xi)=1,则,则 I(xi)=0. 2) 自信息量的单位自信息量的单位 自信息量的单位与所用对数的底有关:自信息量的单位与所用对数的底有关: 1 对数的底是对数的底是2 时,单位为时,单位为比特比特 bit(binary unit) 2 对数的底是对数的底是 e (自然对数自然对数)时,单位为时,单位为奈特奈特 nat(
16、nature unit)20现在学习的是第20页,共85页 3 对数的底是对数的底是10(常用对数常用对数) 时,单位为时,单位为笛特或哈特笛特或哈特 det (decimal unit) or Hart (Hartley) 三种信息量单位之间的换算:三种信息量单位之间的换算: 1 det = log2 10 3.322 bit 1 bit = ln 2 0.6931 nat 1 bit = lg 2 0.3010 det 1 nat = log2 e 1.4427 bit 在信息论中常用以在信息论中常用以2为底的对数,为了书写方便,以后将为底的对数,为了书写方便,以后将log2书写为书写为l
17、og,因其单位为比特,因其单位为比特bit,不会产生混淆;,不会产生混淆; 注意注意 有些有些文献将文献将log2书写为书写为 lb。21现在学习的是第21页,共85页 【例例2.5 】一个一个1, 0等概的二进制随机序等概的二进制随机序列,求任一码元的自信息量。列,求任一码元的自信息量。解:任一码元不是为解:任一码元不是为0就是为就是为1因为因为 P(0) = P(1) = 1/2所以所以 I (0) = I (1) = lb (1/2) = 1(bit)22现在学习的是第22页,共85页 【例例2.6 】 对于对于2n进制的数字序列进制的数字序列, 假设每一符号假设每一符号的出现完全随机且
18、概率相等,求任一符号的自信的出现完全随机且概率相等,求任一符号的自信息量。息量。解:设解:设2n进制数字序列任一码元进制数字序列任一码元xi的出现概率为的出现概率为p (xi),根据题意,根据题意, p(xi) = 1/2n I (xi ) = lb(1/2n) = n (bit) 事件的自信息量只与其概率有关,而与它的取事件的自信息量只与其概率有关,而与它的取值无关。值无关。23现在学习的是第23页,共85页 3) 自信息量的含义自信息量的含义 是随机量、根据单个符号消息的先验概率确定其是随机量、根据单个符号消息的先验概率确定其信息量和不确定度。是该符号出现后,提供给收信息量和不确定度。是该
19、符号出现后,提供给收信者的信息量。信者的信息量。 4) 随机事件的不确定度:随机事件的不确定度: 不确定度在数量,单位与自信息量相同,含义不不确定度在数量,单位与自信息量相同,含义不同。具有某种概率的信源符号在发生之前,存在同。具有某种概率的信源符号在发生之前,存在不确定度,不确定度表征该符号的特性。不确定度,不确定度表征该符号的特性。24现在学习的是第24页,共85页 5) 自信息量自信息量 I(xi) 的特性的特性 1事件事件xi 先验概率先验概率p(xi)=1(确定事件确定事件), 则不存在不确定则不存在不确定性,同时不会带来信息量;性,同时不会带来信息量;I(xi)=0。 2事件事件x
20、i 先验概率先验概率p(xi)=0(不可能事件不可能事件),则存在不确定性应则存在不确定性应为无穷大,同时会带来无穷的信息量;为无穷大,同时会带来无穷的信息量;I(xi) 3非负性非负性 4单调性单调性 若有两个事件若有两个事件xi,xj ,其先验概率为,其先验概率为p(xi)p(xj),则事件,则事件xi 比事件比事件xj 有更大的不确定性,同时会带来更多有更大的不确定性,同时会带来更多的信息量;的信息量;I(xi )I(xj ) 5可加性可加性 两个统计独立事件的联合自信息量应等于它两个统计独立事件的联合自信息量应等于它们各自信息量之和们各自信息量之和; 则则 I( x y ) = I(
21、x )I( y )25现在学习的是第25页,共85页 6) 联合自信息量与条件自信息量联合自信息量与条件自信息量 1 联合自信息量联合自信息量 定义定义:若有两个消息:若有两个消息xi , yj同时出现,用联合概率同时出现,用联合概率p(xi yj) 表示,联合自信息量为:表示,联合自信息量为:I(xi yj) =log p(xi yj) 当当X和和Y相互独立时,相互独立时, p(xiyj )= p(xi) p(yj ),代入到前式就有:,代入到前式就有:I(xiyj )=- log2p(xi)-log2p(yj )= I(xi)+I(yj ) 说明两个随机事件相互独立时,同时发生得到的自信息
22、说明两个随机事件相互独立时,同时发生得到的自信息量,等于这两个随机事件各自独立发生得到的自信息量之量,等于这两个随机事件各自独立发生得到的自信息量之和。和。26现在学习的是第26页,共85页 2 条件自信息量条件自信息量 定义:定义:在事件在事件yj 出现条件下,出现条件下,xi发生的条件概率为发生的条件概率为p(xi | yj),则,则 xi的条件自信息量为:的条件自信息量为: I(x i | yj)=log p(xi | yj) 由于随机事件(消息)的概率在由于随机事件(消息)的概率在01范围内,所范围内,所以联合信息量和条件自信息量也满足非负和单调递减以联合信息量和条件自信息量也满足非负
23、和单调递减性。性。27现在学习的是第27页,共85页 联合自信息、条件自信息与自信息间联合自信息、条件自信息与自信息间的关系的关系 I(xiyj )=- log2p(xi)p(yj|xi)= I(xi)+I (yj|xi) =- log2p(yj)p(xi|yj)= I(yj)+I (xi| yj) 28现在学习的是第28页,共85页作为信源总体信息测度的量应是信源各作为信源总体信息测度的量应是信源各个不同符号个不同符号xi (i = 1, 2, N) 所包含的自所包含的自信息量信息量I(xi) (i =1, 2, , N) 在信源空间在信源空间P(X) = p(x1), p(x2), , p
24、(xi), , p(xN )中的统计平均值。中的统计平均值。29现在学习的是第29页,共85页 【例例2.7 】一个布袋内放一个布袋内放100个球,其中个球,其中80个球个球为红色,为红色,20球为白色。若随机摸取一个球,猜球为白色。若随机摸取一个球,猜测其颜色,求平均摸取一次所获得的(自)信测其颜色,求平均摸取一次所获得的(自)信息量。息量。 解:随机事件的概率空间为解:随机事件的概率空间为2 . 08 . 021xxPX30现在学习的是第30页,共85页 当被告知摸出红球的信息量是当被告知摸出红球的信息量是 当被告知摸出白球的信息量是当被告知摸出白球的信息量是 如果每次摸出一个球后又放回袋
25、中,再进行下一次如果每次摸出一个球后又放回袋中,再进行下一次摸取且如此摸取摸取且如此摸取n次,那么红球出现的次数为次,那么红球出现的次数为np(x1),白球出现的次数为,白球出现的次数为np(x2)。随机摸取。随机摸取n次后总共所次后总共所获得的信息量为获得的信息量为bitlbxpxI8 . 0)(log)(11bitlbxpxI2 . 0)(log)(22)()()()(2211xIxnpxIxnp31现在学习的是第31页,共85页 而平均随机摸取而平均随机摸取1次所获得的信息量为次所获得的信息量为)(log)()(log)()(log)()()()()(12122112211iiixpxp
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信源 信息
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内