信息论与编码技术 chap2 信源及其熵.ppt





《信息论与编码技术 chap2 信源及其熵.ppt》由会员分享,可在线阅读,更多相关《信息论与编码技术 chap2 信源及其熵.ppt(92页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第二章第二章 信源及其熵信源及其熵u本章介绍本章介绍信源的统计特性和数学模型信源的统计特性和数学模型各类信源的信息测度各类信源的信息测度-熵及其性质熵及其性质引入信息理论的一些基本概念和重要结论引入信息理论的一些基本概念和重要结论第第一章章的的几个推论几个推论n通信系统模型:通信系统模型:n对信息论的学习可从信源开始对信息论的学习可从信源开始n消息是信息的载荷者。信息是抽象的,消息是消息是信息的载荷者。信息是抽象的,消息是具体的。要研究信息,还得从研究消息入手。具体的。要研究信息,还得从研究消息入手。n由于信源发送什么消息预先是不可知的,只能由于信源发送什么消息预先是不可知的,只能用概率空间来
2、描述信源用概率空间来描述信源2.1 2.1 信源的数学模型及分类信源的数学模型及分类n单符号信源单符号信源:输出是单个符号(代码)的消息输出是单个符号(代码)的消息n离散信源离散信源n连续信源连续信源n平稳随机序列信源平稳随机序列信源:信源输出的消息由一系列符号序列信源输出的消息由一系列符号序列所组成,可用所组成,可用N维随机矢量维随机矢量 X(X1,X2,XN)描述,且随机描述,且随机矢量矢量X X 的各维概率分布都与时间起点无关的各维概率分布都与时间起点无关-平稳!平稳!n离散平稳信源离散平稳信源n连续平稳信源连续平稳信源n无记忆(独立)离散平稳信源无记忆(独立)离散平稳信源n有记忆信源有
3、记忆信源nm阶马尔可夫信源阶马尔可夫信源n随机波形信源随机波形信源离散信源离散信源(单符号单符号)n特点特点:输出是单个符号(代码)的消息,符号集输出是单个符号(代码)的消息,符号集的取值的取值A:a1,a2,aq是有限的或可数的,可用是有限的或可数的,可用一维离散型随机变量一维离散型随机变量X来描述。来描述。n例:例:投硬币、书信、电报符号等等。投硬币、书信、电报符号等等。n数学模型数学模型:设每个信源符号设每个信源符号ai出现的出现的(先验先验)概率概率 p(ai)(i=1,2,q)满足:满足:概率空间概率空间能表征离散信源的统计特性,因此也称概率能表征离散信源的统计特性,因此也称概率空间
4、为信源空间。空间为信源空间。连续信源连续信源n特点特点:输出是单个符号(代码)的消息,:输出是单个符号(代码)的消息,输出消输出消息的符号集息的符号集A的取值是连续的,可用一维的连的取值是连续的,可用一维的连续型随机变量续型随机变量X 来描述。来描述。n例:语音信号、热噪声信号、遥控系统中有关电压、例:语音信号、热噪声信号、遥控系统中有关电压、温度、压力等测得的连续数据等等。温度、压力等测得的连续数据等等。n数学模型数学模型:连续型的概率空间。即:连续型的概率空间。即:或或或或满足满足满足满足 或或或或 平稳随机序列信源平稳随机序列信源n总体总体特点特点:信源输出的消息由一系列符号序列所组成,
5、可用信源输出的消息由一系列符号序列所组成,可用N维随机矢量维随机矢量 X(X1,X2,XN)描述,且随机矢量描述,且随机矢量X X 的各维概率分布都与时间起点无关的各维概率分布都与时间起点无关 平稳!平稳!n离散平稳信源:每个随机变量离散平稳信源:每个随机变量Xi (i1,2,N)都是离散型随机变量都是离散型随机变量n连续平稳信源:每个随机变量连续平稳信源:每个随机变量Xi (i1,2,N)都是取值连续的随机变量都是取值连续的随机变量离散无记忆平稳信源离散无记忆平稳信源n离散平稳信源的特例,信源发出的符号都离散平稳信源的特例,信源发出的符号都相互统计独相互统计独立立,即各随机变量,即各随机变量
6、X Xi (i1,2,N)之间统计独立之间统计独立n性质性质:n独立独立P(X)=P(X X1,X X2,X XN)=P1(X1)P2(X2)PN(XN)n平稳平稳 P1(Xi)=P2(Xi)=PN(Xi)N维随机维随机矢量矢量的一个取的一个取值,值,i(ai1 ai2aiN)P(aik)是符号集是符号集A的的一维概率分布一维概率分布n 设各随机变量设各随机变量X Xi取值同样符号集取值同样符号集A:a1,a2,aq,则则n描述的信源描述的信源X的各输出各输出X Xi间统计独立间统计独立、且取值、且取值同一同一符号集符号集A,则则X为为离散无记忆信源离散无记忆信源,称该信源输出,称该信源输出的
7、的N维维随机矢量随机矢量X 为为离散无记忆信源离散无记忆信源X的的N次扩展次扩展信源信源n若若X 取值为取值为符号集符号集 i(ai1ai2aiN),其中其中(i1,i2,iN=1,2,q),则则离散无记忆信源的离散无记忆信源的N次扩展次扩展信源的信源的数学模型数学模型是是X信源空间的信源空间的N重空间重空间:有记忆信源有记忆信源n信源在不同时刻发出的信源在不同时刻发出的符号之间是相互依赖的符号之间是相互依赖的,即信源输出的平稳随机序列即信源输出的平稳随机序列X中,各随机变量中,各随机变量Xi之之间相互依赖。间相互依赖。n需在需在N维随机矢量的联合概率分布中,引入维随机矢量的联合概率分布中,引
8、入条件概条件概率分布率分布来说明它们之间的关联。来说明它们之间的关联。n例:例:汉字组成的中文序列中,只有根据中文的语法、汉字组成的中文序列中,只有根据中文的语法、习惯用语、修辞制约和表达实际意义的制约所构成的中习惯用语、修辞制约和表达实际意义的制约所构成的中文序列才是有意义的中文句子或文章。所以,在汉字序文序列才是有意义的中文句子或文章。所以,在汉字序列中前后文字的出现是有依赖的,不能认为是彼此不相列中前后文字的出现是有依赖的,不能认为是彼此不相关的。其他如英文,德文等自然语言都是如此关的。其他如英文,德文等自然语言都是如此m m阶马尔可夫信源阶马尔可夫信源n不同时刻发出的符号间的依赖关系不
9、同时刻发出的符号间的依赖关系n记忆信源的记忆长度为记忆信源的记忆长度为m+1时,称这种有记忆信时,称这种有记忆信源为源为m阶马尔可夫信源阶马尔可夫信源n若上述条件概率与时间起点若上述条件概率与时间起点 i 无关,信源输出的无关,信源输出的符号序列可看成为时齐马尔可夫链,则此信源称符号序列可看成为时齐马尔可夫链,则此信源称为为时齐马尔可夫信源时齐马尔可夫信源更一般情况:随机波形信源更一般情况:随机波形信源n实际信源输出的消息常常是时间和取值都是连续实际信源输出的消息常常是时间和取值都是连续的。这类信源称为的。这类信源称为随机波形信源随机波形信源。n随机波形信源在某一固定时间随机波形信源在某一固定
10、时间 t0 的可能取值是的可能取值是连连续和随机续和随机的。对于这种信源输出的消息,可用随的。对于这种信源输出的消息,可用随机过程来机过程来描述描述。n例:语音信号例:语音信号X(t)、热噪声信号热噪声信号n(t)、电视图像信电视图像信号号X(r(t),g(t),b(t)等时间连续函数。等时间连续函数。2.2 2.2 离散信源的信息熵其性质离散信源的信息熵其性质 n讨论基本的离散信源讨论基本的离散信源(即输出为单个符号的消即输出为单个符号的消息,且这些消息间两两互不相容息,且这些消息间两两互不相容)n基本的离散信源可用一维随机变量基本的离散信源可用一维随机变量X来描述信来描述信源的输出,信源的
11、数学模型可抽象为源的输出,信源的数学模型可抽象为:问题问题问题问题:这样的信源能输出多少信息:这样的信源能输出多少信息:这样的信源能输出多少信息:这样的信源能输出多少信息?每个消息的出现携带多少信息量每个消息的出现携带多少信息量每个消息的出现携带多少信息量每个消息的出现携带多少信息量?信息的度量信息的度量n考虑:考虑:n信息的度量(信息量)和不确定性消除的程度有关,信息的度量(信息量)和不确定性消除的程度有关,消除的不确定性获得的信息量;消除的不确定性获得的信息量;n不确定性就是随机性,可以用概率论和随机过程来测不确定性就是随机性,可以用概率论和随机过程来测度,概率小度,概率小不确定性大;不确
12、定性大;n推论:推论:n概率小概率小 信息量大,即信息量是概率的单调递减函信息量大,即信息量是概率的单调递减函数;数;n信息量应该具有可加性;信息量应该具有可加性;n信息量的计算公式为(香农(自)信息量的度量):信息量的计算公式为(香农(自)信息量的度量):一一.自信息自信息n设离散信源设离散信源X的概率空间为:的概率空间为:I(ai)代表两种代表两种含义含义:(1)当事件当事件ai发生以前,表示事件发生以前,表示事件ai发生的不确定性发生的不确定性(2)当事件)当事件ai发生以后,表示事件发生以后,表示事件ai所提供的信息量所提供的信息量n称事件称事件ai发生所含有的信息量为发生所含有的信息
13、量为 ai 的的自信息量自信息量。定义为:定义为:例例 8个串联的灯泡个串联的灯泡x1,x2,x8,其损坏的可能性是等其损坏的可能性是等概率的,现假设其中有一个灯泡已损坏,问每进行一次测量概率的,现假设其中有一个灯泡已损坏,问每进行一次测量可获得多少信息量?总共需要多少次测量才能获知和确定哪可获得多少信息量?总共需要多少次测量才能获知和确定哪个灯泡已损坏。个灯泡已损坏。解解解解:收到某消息获得的信息量:收到某消息获得的信息量:收到某消息获得的信息量:收到某消息获得的信息量(即收到某消息后获得关于即收到某消息后获得关于即收到某消息后获得关于即收到某消息后获得关于某事件发生的信息量某事件发生的信息
14、量某事件发生的信息量某事件发生的信息量)不确定性减少的量不确定性减少的量不确定性减少的量不确定性减少的量 (收到此消息前关于某事件发生的不确定性收到此消息前关于某事件发生的不确定性收到此消息前关于某事件发生的不确定性收到此消息前关于某事件发生的不确定性)-(-(收到此消息后关于某事件发生的不确定性收到此消息后关于某事件发生的不确定性收到此消息后关于某事件发生的不确定性收到此消息后关于某事件发生的不确定性)已知已知8个灯泡等概率损坏,所以先验概率个灯泡等概率损坏,所以先验概率P(x1)1/8,即,即第二次测量第二次测量获得的信息量获得的信息量=I P(x2)-I P(x3)=1(bit)第三次测
15、量第三次测量获得的信息量获得的信息量=I P(x3)=1(bit)vv至少要获得至少要获得至少要获得至少要获得3 3个比特的信息量就可确切知道哪个灯泡已坏了。个比特的信息量就可确切知道哪个灯泡已坏了。个比特的信息量就可确切知道哪个灯泡已坏了。个比特的信息量就可确切知道哪个灯泡已坏了。第一次测量第一次测量获得的信息量获得的信息量=I P(x1)-I P(x2)=1(bit)经过二次测量后,剩经过二次测量后,剩2个灯泡,等概率损坏,个灯泡,等概率损坏,P(x3)1/2一次测量后,剩一次测量后,剩4个灯泡,等概率损坏,个灯泡,等概率损坏,P(x2)1/4自自信息的推导信息的推导n某事件发生所含有的信
16、息量应该是该事件发生的先验概率某事件发生所含有的信息量应该是该事件发生的先验概率的函数。即:的函数。即:I(ai)f p(ai)n根据客观事实和人们的习惯概念,函数根据客观事实和人们的习惯概念,函数 f p(ai)应满足以应满足以下条件:下条件:(1)它应是先验概率)它应是先验概率p(ai)的单调递减函数,即当的单调递减函数,即当 p(a1)p(a2)时,有时,有 f p(a1)1r1)熵的计算熵的计算例例:有一布袋内放有一布袋内放l00个球,其中个球,其中80个球是红色的,个球是红色的,20个球是白色的。随便摸出一个球,猜测是什么颜个球是白色的。随便摸出一个球,猜测是什么颜色,那么其概率空间
17、为:色,那么其概率空间为:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:I(a1)log p(a1)log0.8=0.32 (比特)比特)比特)比特)如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:I(a2)log p(a2)log0.2=2.32 (比特)比特)比特)比特)平均摸取一次所能获得的信息量为平均摸取一次所能获得的信息量为平均摸
18、取一次所能获得的信息量为平均摸取一次所能获得的信息量为 :H(X)=p(a1)I(a1)+p(a2)I(a2)=0.72(比特比特比特比特/符号)符号)符号)符号)熵的含义熵的含义n熵是熵是从整个集合的统计特性从整个集合的统计特性来考虑的,它从平均意义上来来考虑的,它从平均意义上来表征信源的总体特征。表征信源的总体特征。n在信源输出后,信息熵在信源输出后,信息熵H(X)表示每个消息提供的平均信表示每个消息提供的平均信息量;息量;n在信源输出前,信息熵在信源输出前,信息熵H(X)表示信源的平均不确定性;表示信源的平均不确定性;n信息熵信息熵H(X)表征了变量表征了变量X的随机性。的随机性。n n
19、例如例如例如例如,有两信源有两信源有两信源有两信源X X、Y Y,其概率空间分别其概率空间分别其概率空间分别其概率空间分别计算其熵,计算其熵,得:得:得:得:H(X)=0.08H(X)=0.08(bit/bit/符号)符号)符号)符号)H(Y)=1H(Y)=1(bit/bit/符号)符号)符号)符号)H(Y)H(X),因此信源因此信源Y比信源比信源X的平均不确定性要大。的平均不确定性要大。例例 设甲地的天气预报为:晴设甲地的天气预报为:晴(占占48)、阴、阴(占占28)、大雨、大雨(占占18)、小雨、小雨(占占18)。又设乙地的天气预报为:晴。又设乙地的天气预报为:晴(占占78),小雨,小雨(
20、占占18)。试求两地天气预报各自提供的平均信息。试求两地天气预报各自提供的平均信息量。若甲地天气预报为两极端情况,一种是晴出现概率为量。若甲地天气预报为两极端情况,一种是晴出现概率为1而而其余为其余为0。另一种是晴、阴、小雨、大雨出现的概率都相等为。另一种是晴、阴、小雨、大雨出现的概率都相等为14。试求这两极端情况所提供的平均信息量。又试求乙地出。试求这两极端情况所提供的平均信息量。又试求乙地出现这两极端情况所提供的平均信息量。现这两极端情况所提供的平均信息量。两个信源两个信源解:甲地天气预报构成的信源空间为解:甲地天气预报构成的信源空间为:则其提供的平均信息量即信源的信息熵则其提供的平均信息
21、量即信源的信息熵则其提供的平均信息量即信源的信息熵则其提供的平均信息量即信源的信息熵:乙地天气预报的信源空间为乙地天气预报的信源空间为:n n结论结论结论结论:甲地:甲地:甲地:甲地天气预报天气预报提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地比甲地的平均不确定性小。比甲地的平均不确定性小。比甲地的平均不确定性小。比甲地的平均不确定性小。甲地极端情况n极端情况极端情况1:晴天概率:晴天概率1n 结论结论:等概率分布等概率分布时信源的不确定性最大,时信源的不确定性最大,所以所以信息熵信息熵(平均信息量)平均
22、信息量)最大最大。n极端情况极端情况2:各种天气等概率分布:各种天气等概率分布乙地极端情况n极端情况极端情况1:晴天概率:晴天概率1n 结论结论:在极端情况:在极端情况2下,甲地比乙地提供更多的信息量。下,甲地比乙地提供更多的信息量。因为,甲地可能出现的消息数比乙地可能出现的消息数多。因为,甲地可能出现的消息数比乙地可能出现的消息数多。n极端情况极端情况2:各种天气等概率分布:各种天气等概率分布n信息熵是信源概率空间的一种特殊信息熵是信源概率空间的一种特殊矩函数矩函数。这个矩函。这个矩函数的大小,与信源的符号数及其概率分布有关。数的大小,与信源的符号数及其概率分布有关。n我们用我们用概概率矢量
23、率矢量P来表示来表示概概率分布率分布P(x):三、信息熵的基本性质三、信息熵的基本性质 这样,信息熵这样,信息熵这样,信息熵这样,信息熵H(H(X X)是概率矢量是概率矢量是概率矢量是概率矢量P P或它的分量或它的分量或它的分量或它的分量p p1 1,p p2 2,p pq q的的的的q-1q-1元函数元函数元函数元函数(因各分量满足上述条件限制,所以独立变量只因各分量满足上述条件限制,所以独立变量只因各分量满足上述条件限制,所以独立变量只因各分量满足上述条件限制,所以独立变量只有有有有q-1q-1元元元元)。一般一般一般一般 H(H(X)X)可写成:可写成:可写成:可写成:熵函数熵函数nH(
24、P)是概率矢量是概率矢量P的函数,称为熵函数。的函数,称为熵函数。n我们用下述表示方法:我们用下述表示方法:n用用H(x)表示以离散随机变量表示以离散随机变量x描述的描述的信源的信息熵信源的信息熵;n用用H(P)或或 H(p1,p2,pq)表示概率矢量为表示概率矢量为P=(p1,p2,pq)的的q个符号信源的信息熵个符号信源的信息熵。n若当若当 q=2 时,因为时,因为 p1+p2=1,所以将两个符号的熵所以将两个符号的熵函数写成函数写成H(p1)或或H(p2)。n熵函数熵函数H(P)是一种特殊函数,具有以下性质。是一种特殊函数,具有以下性质。性质:性质:1、对称性、对称性:H(P)的的取值与
25、分量取值与分量 p1,p2 ,pq的顺序无关。的顺序无关。n说明:说明:从数学角度:从数学角度:H(P)=pi log pi 中的和式满足交换率;中的和式满足交换率;从随机变量的角度:熵只与随机变量的总体统计特性有关。从随机变量的角度:熵只与随机变量的总体统计特性有关。n一个例子:一个例子:2、确定性、确定性:H(1,0)=H(1,0,0)=H(1,0,0,0)=0n性质说明性质说明:从总体来看,信源虽然有不同的输出符号,:从总体来看,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号则是几但它只有一个符号几乎必然出现,而其它符号则是几乎不可能出现,那么,这个信源是一个确知信源
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论与编码技术 chap2 信源及其熵 信息论 编码 技术 信源 及其

限制150内