第2章离散信源及其信息测度优秀课件.ppt
《第2章离散信源及其信息测度优秀课件.ppt》由会员分享,可在线阅读,更多相关《第2章离散信源及其信息测度优秀课件.ppt(88页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第2章离散信源及其信息测度第1页,本讲稿共88页第一节第一节 信源的数学模型及分类信源的数学模型及分类 在通信系统中,收信者在未收到信息以前,对信源发出在通信系统中,收信者在未收到信息以前,对信源发出什么样的消息是不确定的,是随机的,所以可以用随机变量、什么样的消息是不确定的,是随机的,所以可以用随机变量、随机矢量或随机过程来描述信源输出的消息,或者说用一个随机矢量或随机过程来描述信源输出的消息,或者说用一个样本空间样本空间及其及其概率测度概率测度来描述信源。来描述信源。不同的信源根据其输出消息的不同的随机性质进行分不同的信源根据其输出消息的不同的随机性质进行分类。类。第2页,本讲稿共88页随
2、机变量x描述信源输出的消息 离散信源连续信源 随机序列x描述信源输出的消息 离散平稳信源连续平稳信源 非平稳信源平稳信源 第一节第一节 信源的数学模型及分类信源的数学模型及分类第3页,本讲稿共88页1、离散信源、离散信源:指发出在时间和幅度上都是离散分布的离散指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。消息的信源,如文字、数字、数据等符号都是离散消息。数学模型如下:数学模型如下:集合集合X中,包含该信源包含的所有可能输出的消息,集中,包含该信源包含的所有可能输出的消息,集合合P中包含对应消息的概率密度,各个消息的输出概率中包含对应消息的概率密度,各个
3、消息的输出概率总和应该为总和应该为1。例:天气预报例:天气预报第一节第一节 信源的数学模型及分类信源的数学模型及分类第4页,本讲稿共88页2、连续信源指发出在时间和幅度上都是连续分布的连续消息(模、连续信源指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源。拟消息)的信源。数学模型如下:数学模型如下:每次只输出一个消息,但消息的可能数目是无穷多个。每次只输出一个消息,但消息的可能数目是无穷多个。例:电压、温度等。例:电压、温度等。第一节第一节 信源的数学模型及分类信源的数学模型及分类第5页,本讲稿共88页收到某消息获得的收到某消息获得的信息量信息量 不确定性减少的量不确定性减少的量
4、(收到此信息(收到此信息前前关于某事件发生的不确定性)关于某事件发生的不确定性)(收到此信息(收到此信息后后关于某事件发生的不确定性)关于某事件发生的不确定性)第二节第二节 离散信源的信息熵离散信源的信息熵在信息传输的一般情况下,直观地把信息量定义为:事件发生的不确定性与事件发生的概率有关。事件发生的不确定性与事件发生的概率有关。第6页,本讲稿共88页o事件发生的概率越小,我们猜测它有没有发生的困难程度就越大,不确事件发生的概率越小,我们猜测它有没有发生的困难程度就越大,不确定性就越大。定性就越大。概率等于概率等于1的必然事件,就不存在不确定性。的必然事件,就不存在不确定性。o某事件发生所含有
5、的信息量应该是该事件发生的某事件发生所含有的信息量应该是该事件发生的先验概率的函数。先验概率的函数。第二节第二节 离散信源的信息熵离散信源的信息熵第7页,本讲稿共88页1、自信息、自信息 某事件发生所携带的信息量是和该事件出现的概率有关,某事件发生所携带的信息量是和该事件出现的概率有关,概率可以表征自信息量的大小概率可以表征自信息量的大小 根据客观事实和人们的习惯概念,应满足以下条件:根据客观事实和人们的习惯概念,应满足以下条件:是事件的发生的先验概率。是事件的发生的先验概率。第二节第二节 离散信源的信息熵离散信源的信息熵第8页,本讲稿共88页(2)当)当时(3)当 时(4)两个独立事件的联合
6、信息量应等于它们分别的信息量之)两个独立事件的联合信息量应等于它们分别的信息量之和。和。(1)应是先验概率的单调递减函数,即应是先验概率的单调递减函数,即 当当 时时 第二节第二节 离散信源的信息熵离散信源的信息熵第9页,本讲稿共88页 根据上述条件可以从数学上证明这种函数形式是对数函数,即:有两个含义:1 1、当事件发生、当事件发生前前,表示该事件发生的不确定性表示该事件发生的不确定性;2 2、当事件发生、当事件发生后后,表示该事件所提供的信息量表示该事件所提供的信息量。第二节第二节 离散信源的信息熵离散信源的信息熵第10页,本讲稿共88页o 自信息的测度单位及其换算关系l如果如果取以取以2
7、 2为底,则信息量单位称为为底,则信息量单位称为比特比特(binary unit)l如果取以如果取以e为底,则信息量单位称为为底,则信息量单位称为奈特奈特(nature unit)l如果取以如果取以1010为底,则信息量单位称为为底,则信息量单位称为哈特哈特(Hart unit,以纪念哈以纪念哈特莱首先提出用对数来度量消息特莱首先提出用对数来度量消息)l1 1奈特奈特1.441.44比特比特 1 1哈特哈特3.323.32比特比特l一般都采用以一般都采用以“2”2”为底的对数,为了书写简洁,有时把底数为底的对数,为了书写简洁,有时把底数2 2略去不写。略去不写。第二节第二节 离散信源的信息熵离
8、散信源的信息熵第11页,本讲稿共88页 信息论中“比特”与 计算机术语中“比特”区别l如果如果p(xi)=1/2,则,则I(xi)=1比特。所以比特。所以1比比特信息量就是两个互不相容的等可能事件之特信息量就是两个互不相容的等可能事件之一发生时所提供的信息量。一发生时所提供的信息量。l信息论中信息论中“比特比特”是指抽象的信息量是指抽象的信息量单位;单位;l计算机术语中计算机术语中“比特比特”是代表二元数字;是代表二元数字;l这两种定义之间的关系是:这两种定义之间的关系是:每个二元数每个二元数字所能提供的最大平均信息量为字所能提供的最大平均信息量为1比特。比特。第12页,本讲稿共88页例:设天
9、气预报有两种消息,晴天和雨天,出现的概率分例:设天气预报有两种消息,晴天和雨天,出现的概率分别为别为1/41/4和和3/43/4,我们分别用,我们分别用a a1 1来表示晴天,以来表示晴天,以a a2 2 来表示雨来表示雨天,则我们的信源模型如下:天,则我们的信源模型如下:第二节第二节 离散信源的信息熵离散信源的信息熵第13页,本讲稿共88页联合自信息量联合自信息量o信源模型为信源模型为o其中其中0p(xiyj)1(i=1,2,n;j=1,2,m)o则则联合自信息量联合自信息量为为o当当X和和Y相互独立时,相互独立时,p(xiyj)=p(xi)p(yj)o两个随机事件相互独立时,同时发生得到的
10、信息量,等于两个随机事件相互独立时,同时发生得到的信息量,等于各自自信息量之和。各自自信息量之和。第14页,本讲稿共88页条件自信息量条件自信息量o设设yj条件下,发生条件下,发生xi的条件概率为的条件概率为p(xi/yj),那么它的条件自,那么它的条件自信息量信息量I(xi/yj)定义为定义为o表示在特定条件下(表示在特定条件下(yj已定)随机事件已定)随机事件xi所带来的信息量所带来的信息量o同理,同理,xi已知时发生已知时发生yj的条件自信息量为的条件自信息量为o自信息量、条件自信息量和联合自信息量之间的关系自信息量、条件自信息量和联合自信息量之间的关系第15页,本讲稿共88页【例例】某
11、某住住宅宅区区共共建建有有若若干干栋栋商商品品房房,每每栋栋有有5个个单单元元,每每个个单单元元住住有有12户,甲要到该住宅区找他的朋友乙,若:户,甲要到该住宅区找他的朋友乙,若:1.甲甲只只知知道道乙乙住住在在第第5栋栋,他他找找到到乙乙的的概概率率有有多多大大?他他能能得得到到多多少少信息?信息?2.甲甲除除知知道道乙乙住住在在第第5栋栋外外,还还知知道道乙乙住住在在第第3单单元元,他他找找到到乙乙的的概概率率又有多大?他能得到多少信息?又有多大?他能得到多少信息?用用xi代表单元数,代表单元数,yj代表户号:代表户号:(1 1)甲甲 找找 到到 乙乙 这这 一一 事事 件件 是是 二二
12、维维 联联 合合 集集 X Y上上 的的 等等 概概 分分 布布 ,这一事件提供给甲的信息量为,这一事件提供给甲的信息量为 I(xi yj)=-)=-log p(xi yj)=log60=5.907(比特)(比特)(2 2)在在二二维维联联合合集集X Y上上的的条条件件分分布布概概率率为为 ,这这一一事件提供给甲的信息量为条件自信息量事件提供给甲的信息量为条件自信息量 I(yjxi)=-)=-logp(yjxi)=log12=)=log12=3.585(比特)(比特)第16页,本讲稿共88页我们定义我们定义自信息的数学期望自信息的数学期望为为信源的平均信息量信源的平均信息量信息熵具有以下两种物
13、理含义:信息熵具有以下两种物理含义:1 1、表示信源输出前信源的平均不确定性;、表示信源输出前信源的平均不确定性;2 2、表示信源输出后每个符号所携带的平均信息量。、表示信源输出后每个符号所携带的平均信息量。2、信息熵、信息熵信息熵是从平均意义平均意义上来表征信源的总体信息测度。信息熵的单位:信息熵的单位:取决于对数选取的底。一般选用以取决于对数选取的底。一般选用以2为底,其单位为底,其单位为为比特比特/符号符号。第二节第二节 离散信源的信息熵离散信源的信息熵第17页,本讲稿共88页信息熵:信息熵:从从平均平均意义上来表征信源的意义上来表征信源的总体总体信息测度的信息测度的一个量。一个量。自信
14、息:自信息:指某一信源发出某一消息所含有的信息量。指某一信源发出某一消息所含有的信息量。所发出的消息不同所发出的消息不同,它们所含有的信息量也它们所含有的信息量也就不同。就不同。自信息自信息I(xi)是一个随机变量是一个随机变量,不能用它来作不能用它来作为整个信源的信息测度。为整个信源的信息测度。第18页,本讲稿共88页例:天气预报,有两个信源 则:说明第二个信源的平均不确定性更大一些。第二节第二节 离散信源的信息熵离散信源的信息熵第19页,本讲稿共88页n 信源熵与平均获得的信息量 信源熵信源熵是信源的是信源的平均不确定性平均不确定性的描述。在一般的描述。在一般情况下它并不等于情况下它并不等
15、于平均获得的信息量平均获得的信息量。只有在。只有在无噪无噪情况下,接收者才能正确无误地接收到信源所发出情况下,接收者才能正确无误地接收到信源所发出的消息,消除了的消息,消除了H(X)大小的平均不确定性,所以获得大小的平均不确定性,所以获得的平均信息量就等于的平均信息量就等于H(X)。在一般情况下获得的信息量在一般情况下获得的信息量是是两熵之差两熵之差,并不是信源熵本身。,并不是信源熵本身。第20页,本讲稿共88页o电视屏上约有 500 600=3105个格点,按每点有 10个不同的灰度等级考虑,则共能组成 个不同的画面。每个画面出现按等概率 计算,平均每个画面可提供的信息量为 3 105 3.
16、32 比特/画面 上节课自信息复习上节课自信息复习第21页,本讲稿共88页o有一篇千字文章,假定每字可从万字表中任选,则共有不同的千字文N=100001000=104000 篇,按等概率1/100001000计算,平均每篇千字文可提供的信息量为 H(X)log2N 4 103 3.32 1.3 104 比特/千字文 o比较:o“一个电视画面”平均提供的信息量远远超过“一篇千字文”提供的信息量。第22页,本讲稿共88页第三节第三节 信息熵的基本性质信息熵的基本性质熵函数可以表示为:信源概率空间:信源概率空间:用概率矢量P来表示概率分布:第23页,本讲稿共88页性质性质1 1:非负性:非负性性质性
17、质2 2:对称性:对称性 根据加法交换律可以证明,当变量交换顺序时熵函数的值不变。根据加法交换律可以证明,当变量交换顺序时熵函数的值不变。信源的熵只与概率空间的总体结构有关,而与每个概率分量对应的状信源的熵只与概率空间的总体结构有关,而与每个概率分量对应的状态顺序无关;态顺序无关;由于 ,所以 ,则 。第三节第三节 信息熵的基本性质信息熵的基本性质n这种非负性这种非负性对于离散信源的熵是合适的对于离散信源的熵是合适的,但,但对连续信源来说这一性质并不存在对连续信源来说这一性质并不存在。第24页,本讲稿共88页性质性质3 3:确定性:确定性 当信源当信源X的信源空间的信源空间X,P中,任一个概率
18、分量等于中,任一个概率分量等于1,根据完备空,根据完备空间特性,其它概率分量必为间特性,其它概率分量必为0,这时信源为一个确知信源,其熵为,这时信源为一个确知信源,其熵为0。如果一个信源的输出符号几乎必然为某一状态,那么这个信源没有不如果一个信源的输出符号几乎必然为某一状态,那么这个信源没有不确定性,信源输出符号后不提供任何信息量。确定性,信源输出符号后不提供任何信息量。第三节第三节 信息熵的基本性质信息熵的基本性质第25页,本讲稿共88页性质性质4 4:扩展性:扩展性这说明信源空间中增加某些概率很小的符号,虽然当发出这些符号这说明信源空间中增加某些概率很小的符号,虽然当发出这些符号时,提供很
19、大的信息量,但由于其概率接近于时,提供很大的信息量,但由于其概率接近于0,在信源熵中占极,在信源熵中占极小的比重,使信源熵保持不变。小的比重,使信源熵保持不变。性质性质5 5:可加性:可加性统计独立的信源统计独立的信源X和和Y的联合信源的熵等于分别熵之和。的联合信源的熵等于分别熵之和。第三节第三节 信息熵的基本性质信息熵的基本性质性质性质6 6:强可加性:强可加性第26页,本讲稿共88页性质性质7 7:极值性:极值性上式表明,对于具有上式表明,对于具有q个符号的离散信源,只有个符号的离散信源,只有在在q个信源符个信源符号号等可能等可能出现的情况下,信源熵才能达到最大值出现的情况下,信源熵才能达
20、到最大值,这也表明,这也表明等等概分布的信源的平均不确定性最大概分布的信源的平均不确定性最大,这是一个很重要得结论,这是一个很重要得结论,称为称为最大离散熵定理最大离散熵定理。例:对于一个二元信源例:对于一个二元信源 H(X)=H(1/2,1/2)=log2=1bit第三节第三节 信息熵的基本性质信息熵的基本性质第27页,本讲稿共88页举 例o二进制信源是离散信源的一个特例。二进制信源是离散信源的一个特例。o设该信源符号只有二个:设该信源符号只有二个:0和和1o设符号输出的概率分别为设符号输出的概率分别为p和和1-po信源的概率空间为信源的概率空间为o二进制信源的信息熵为二进制信源的信息熵为o
21、这时信息熵这时信息熵H(X)是是p的函数。的函数。p取值于取值于0,1区间,我们可区间,我们可以画出熵函数以画出熵函数H(p)的曲线。的曲线。第28页,本讲稿共88页第29页,本讲稿共88页 从图中可以得出熵函数的一些性质:从图中可以得出熵函数的一些性质:o如果二进制信源的输出是确定的如果二进制信源的输出是确定的(p=1或或/p=1),则该信源不提供,则该信源不提供任何信息;任何信息;o当二进制信源符号当二进制信源符号0和和1等概率等概率发生时,信源的发生时,信源的熵达到最大熵达到最大值,等值,等于于1比特比特信息信息o二元数字二元数字是二进制信源的输出。在具有是二进制信源的输出。在具有等概率
22、等概率的二进制信源输出的二进制信源输出的二进制数字序列中,每一个二元数字提供的二进制数字序列中,每一个二元数字提供1比特比特的信息量。如的信息量。如果符号果符号不是等概率分布不是等概率分布,则每一个二元数字所提供的平均信息量总是,则每一个二元数字所提供的平均信息量总是小于小于1比特比特。这也进一步说明了。这也进一步说明了“二元数字二元数字”(计算机术语称(计算机术语称“比特比特”)与信息量单位与信息量单位“比特比特”的关系。的关系。第30页,本讲稿共88页o上凸性的几何意义:上凸性的几何意义:在在上凸函数的任两点之间上凸函数的任两点之间画一条割线,函数总在画一条割线,函数总在割线的上方割线的上
23、方.o严格上凸函数在定义域严格上凸函数在定义域内的极值必为最大值,内的极值必为最大值,这对求最大熵很有用。这对求最大熵很有用。HP+(1-)Q H(P)+(1-)H(Q)性质性质8:上凸性:上凸性第31页,本讲稿共88页图 一维和二维凸集合的例子凸集合非凸集合 从几何上来看,若,是集合R中的任意两点,+(1-)表示这两点间的连线,若该连线也在集合R中,则称为R凸集。下面给出了几个凸集和非凸集合的例子。第32页,本讲稿共88页第四节第四节 离散无记忆的扩展信源离散无记忆的扩展信源 实际信源输出的消息往往是时间上或空间上实际信源输出的消息往往是时间上或空间上的一系列符号,如电报系统;的一系列符号,
24、如电报系统;这类信源每次输出这类信源每次输出的不是一个单个的符号,而是一个符号序列。在的不是一个单个的符号,而是一个符号序列。在信源输出的序列中,每一位出现哪个符号都是随信源输出的序列中,每一位出现哪个符号都是随机的,而且一般前后符号的出现是有统计依赖关机的,而且一般前后符号的出现是有统计依赖关系的。系的。这种信源称为多符号离散信源这种信源称为多符号离散信源。第33页,本讲稿共88页o多符号离散信源可用多符号离散信源可用随机矢量随机矢量/随机变量序列随机变量序列描描述,即述,即 X=X1,X2,X3,o信源在不同时刻的随机变量信源在不同时刻的随机变量Xi 和和Xi+r 的概率分的概率分布布P(
25、Xi)和和P(Xi+r)一般来说是不相同的,即随一般来说是不相同的,即随机变量的统计特性随着时间的推移而有所变化。机变量的统计特性随着时间的推移而有所变化。第34页,本讲稿共88页离散无记忆的扩展信源离散无记忆的扩展信源基本概念:基本概念:假定随机变量序列的长度是有限的,假定随机变量序列的长度是有限的,信源序列的前后符号之间是统计独立的信源序列的前后符号之间是统计独立的/符号之间是无相互依赖关系。则称这类信符号之间是无相互依赖关系。则称这类信源为源为离散无记忆信源离散无记忆信源/离散无记忆信源的离散无记忆信源的扩展扩展。第35页,本讲稿共88页o把信源输出的序列看成是一组一组发出的。把信源输出
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 离散 信源 及其 信息 测度 优秀 课件
限制150内