信息的度量讲稿.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《信息的度量讲稿.ppt》由会员分享,可在线阅读,更多相关《信息的度量讲稿.ppt(68页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、关于信息的度量第一页,讲稿共六十八页哦内容提要:根据香农对于信息的定义,信息是一个系统不确定性的度量,尤其在通信系统中,研究的是信息的处理、传输和存储,所以对于信息的定量计算是非常重要的。本章主要从通信系统模型入手,研究离散情况下各种信息的描述方法及定量计算,讨论它们的性质和相互关系。第2章信息的度量第二页,讲稿共六十八页哦2.1 自信息量和互信息量 一个事件的自信息量就是对其不确定性的度量。一个事件的自信息量就是对其不确定性的度量。互信息量则表明了两个随机事件的相互约束程度。互信息量则表明了两个随机事件的相互约束程度。对于随机事件集X=x1,x2,xi,xI中的随机事件xi,其出现概率记为q
2、(xi),将两个事件xi,yj同时出现的概率记为p(xi yj),则q(xi),p(xi yj)应满足:相应的条件概率为第三页,讲稿共六十八页哦信息量直观的定义为:收到某消息获得的信息量=不确定性减少的量 将某事件发生所得到的信息量记为I(x),I(x)应该是该事件发生的概率的函数,即I(x)=fq(x)211自信息量和条件自信息量第四页,讲稿共六十八页哦1自信息量 直观地看,自信息量的定义应满足以下四点:a.I(x)应该是q(x)的单调递减函数:概率小的事件一旦发生赋予的信息量大,概率大的事件如果发生则赋予的信息量小;b.信息量应具有可加性:对于两个独立事件,其信息量应等于各事件自信息量之和
3、;c.当q(x)=1时,I(x)=0:表示确定事件发生得不到任何信息;d.当q(x)=0时,I(x):表示不可能事件一旦发生,信息量将无穷大。第五页,讲稿共六十八页哦综合上述条件,将自信息量定义自信息量定义为:(2-1)自信息量的单位与log函数所选用的对数底数有关,如底数分别取 2、e、10,则自信息量单位分别为:比特、奈特、哈特【例例2.3】若盒中有6个电阻,阻值为1、2、3的分别为2个、1个、3个,将从盒子中取出阻值为i的电阻记为事件 (i=1,2,3),则事件集X=x1,x2,x3,其概率分布 计算出各事件的自信息量列表2-1如下:第六页,讲稿共六十八页哦消息xi x1 x2 x3 概
4、率分布q(xi)1/3 1/6 1/2 自信息量I(xi)log3 log6 log2 自信息量自信息量I(xi)代表两种含义代表两种含义:1.事件xi发生以前,表示事件发生的先验不确定性2.当事件xi发生以后,表示事件xi所能提供的最大信息量(在无噪情况下)第七页,讲稿共六十八页哦二维联合集X Y上元素xi yj的联合自信息量I(xi yj)定义为:(2-3)(2-4)2.条件自信息量在已知事件yj条件下,随机事件xi发生的概率为条件概率(xiyj),条件自信息量 定义为:第八页,讲稿共六十八页哦【例例2.6】某住宅区共建有若干栋商品房,每栋有5个单元,每个单元住有12户,甲要到该住宅区找他
5、的朋友乙,若:1.甲只知道乙住在第5栋,他找到乙的概率有多大?他能得到多少信息?2.甲除知道乙住在第5栋外,还知道乙住在第3单元,他找到乙的概率又有多大?他能得到多少信息?用xi代表单元数,yj代表户号:(1)甲找到乙这一事件是二维联合集X Y上的等概分布 ,这一事件提供给甲的信息量为 I(xi yj)=-log p(xi yj)=log60=5.907(比特)(2)在二维联合集X Y上的条件分布概率为 ,这一事件提供给甲的信息量为条件自信息量 I(yjxi)=-logp(yjxi)=log12=3.585(比特)第九页,讲稿共六十八页哦1.互信息量从通信的角度引出互信息量的概念信源符号X=x
6、1,x2,xI,xia1,a2,ak,i=1,2,I。经过信道传输,信宿方接收到符号Y=y1,y2,yJ,yjb1,b2,bD,j=1,2,J。图21简单的通信模型 b1,b2,bD信源符号集a1,a2,ak信宿符号集干扰x1,x2,xIy1,y2,yJ信源信源信道信道信宿信宿212 互信息量和条件互信息量互信息量和条件互信息量第十页,讲稿共六十八页哦事件xi是否发生具有不确定性,用I(xi)度量。接收到符号yj后,事件xi是否发生仍保留有一定的不确定性,用I(xiyj)度量。观察事件前后,这两者之差就是通信过程中所获得的信息量,用I(xi;yj)表示:。注:式(2-6)的I(xi;yj)和式
7、(2-3)的I(xiyj)的区别在于:前者是事件xiX和事件yjY之间的互信息量,后者是二维空间XY上元素xi yj 的自信息量。称(2-6)式为事件xi和事件yj之间的互信息量互信息量。(2-6)第十一页,讲稿共六十八页哦根根据据概概率率互互换换公公式式p(xi yj)=p(yjxi)q(xi)=)=(xiyj)()(yj)互信息量互信息量I(xi;yj)有多种表达形式有多种表达形式:(2-7)(2-8)将事件互信息量的概念推广至多维空间:在三维X Y Z联合集中,有:I(xi;yj zk)=I(xi;yj)+I(xi;zkyj)(2-9)类似,在N维U1U2 UN联合空间,有:I(u1;u
8、2u3 uN)=I(u1;u2)+I(u1;u3u2)+I(u1;uiu2 u i-1)+I(u1;uNu2 uN-1)(2-10)第十二页,讲稿共六十八页哦三维X Y Z联合集中,在给定条件zk的情况下,xi,yj的互信息量I(xi;yjzk)定义为:(2-11)2条件互信息量第十三页,讲稿共六十八页哦3互信息量的性质 (1 1)互易性)互易性 I(xi;yj)=I(yj;xi)(2-12)(2)可加性:第十四页,讲稿共六十八页哦(4)互信息量I(xi;yj)可以是正数,也可以是负数。(3)当xi,yj统计独立时,互信息量I(xi;yj)=0及条件互信息量(5)两个事件的互信息量不大于单个事
9、件的自信息量,即有:(2-13)第十五页,讲稿共六十八页哦【例例2.8】信源包含7个消息x0,x1,x2,x3,x4,x5,x6 信源编码器将其对应编成7个三位二进制数000,001,110。各消息的先验概率已知,在接收过程中,每收到一个数字,各消息的后验概率都相应地发生变化。考虑在接受100三个数字的过程中,各后验概率的变化,计算信息量I(x4;100)。信源消息码字消息先验概率消息后验概率收到1后收到10后收到100后x0 0001/16000 x1 0011/16000 x2 0101/16000 x3 0111/16000 x4 1001/22/34/51x5 1011/81/61/5
10、0 x61101/81/600表2-4为7个三位二进制数对应的各种概率。第十六页,讲稿共六十八页哦 根据给定的先验概率,可算出:将各种后验概率的计算结果列于表2-3中,再根据式(2-10)计算出互信息量:I(x4;100)=I(x4;1)+I(x4;01)+I(x4;010)(比特)也可直接计算出:(比特)P (x4100)=1第十七页,讲稿共六十八页哦2 22 2 离散集的平均自信息量离散集的平均自信息量 1平均自信息量(熵)人们注意的是整个系统的统计特性,当信源各个消息的出现概率相互统计独立时,这种信源称为无记忆信源,无记忆信源的平均自信息量定义为各消息自信息量的概率加权平均值(统计平均值
11、),即平平均均自信息量自信息量H(X)定义为:(2-15)H(X)的表达式与统计物理学中的热熵具有相类似的形式,在概念上二者也有相同之处,故借用熵这个词把H(X)称为集合X的信息熵信息熵,简称熵。第十八页,讲稿共六十八页哦【例例2.9】计算下列信源的熵(1)信源一:熵 H(X1)=-0.99log0.990.01log0.01=0.08(比特/符号)(2)信源二:等概信源熵 H(X2)=-0.5log0.5-0.5log0.5=1(比特/符号)(3)信源三:等概信源熵 H(X3)=-40.25log0.25=log4=2(比特/符号)第十九页,讲稿共六十八页哦(5)信源五:一般情况下,二元信源
12、的概率分布为 熵 H(X)=log-(1-)log(1-)记H2()=log-(1-)log(1-)H2()与的关系如图2-2所示。(4)信源四:信源为确定事件 熵H(X4)=-0log01log1=0 计算结果说明确定事件的熵为零 H 2 2()()0 0.5 1 图图 2-2 2-2 H2()与与关系关系第二十页,讲稿共六十八页哦2平均条件自信息量(条件熵)(2-16)若事件xi yj的联合分布概率为p(xi yj),给定yj条件下事件xi的条件自信息量为I(xiyj),则H(XY)定义为:第二十一页,讲稿共六十八页哦当X,Y统计独立时,p(xi yj)=q(xi)(yj),(xiyj)=
13、q(xi),则 从通信角度来看:若将X=x1,x2,xi,视为信源输出符号;Y=y1,y2,yj,视为信宿接收符号;I(xiyj)可看作信宿收到yj后,关于发送的是否为xi仍然存在的疑义度(不确定性),则 反映了经过通信后,信宿符号yj(j=1,2,)关于信源符号xi(i=1,2,)的平均不确定性。(2-17)第二十二页,讲稿共六十八页哦类似,若给定xi条件下事件yj的条件自信息量为I(yjxi),则H(YX)定义为 (2-18)当X,Y统计独立时,有p(xi yj)=q(xi)(yj),则 (2-19)存在以下两种极端情况:(1)对于无噪信道H(XY)=0(2)在强噪声情况下,收到的Y与X毫
14、不相干,可视为统计独立,H(XY)=H(X)第二十三页,讲稿共六十八页哦(2)对于强噪信道,有H(YX)=H(Y)。(1)对于无扰信道,有H(YX)=0。从通信角度来看,H(YX)是发出确定消息xi后,由于信道干扰而使yj存在的平均不确定性,称H(YX)为噪声熵(散布度)。存在以下两种极端情况:第二十四页,讲稿共六十八页哦由熵、条件熵、联合熵的定义式可导出三者的关系式 H(X Y)=H(X)+H(YX)=H(Y)+H(XY)(221)H(X Y)=)=H(X)+)+H(Y)(2-22)上式反映了信息的可加性。当X,Y统计独立时,有3 3联合熵联合熵联合熵H(XY)是定义在二维空间X Y上,对元
15、素xi yj的自信息量的统计平均值,若记事件xiyj出现的概率为p(xi yj),其自信息量为I(xi yj),则联合熵H(XY)定义为 (2-20)第二十五页,讲稿共六十八页哦1凸集合与凸函数简单介绍凸集和凸函数的概念。定义定义2.12.1 是n维实矢量空间集合R中任意两个n维矢量,对实数,01,有+(1-)R则称R为凸集合凸集合。222熵函数的性质第二十六页,讲稿共六十八页哦图23 一维和二维凸集合的例子凸集合非凸集合 从几何上来看,若,是集合R中的任意两点,+(1-)表示这两点间的连线,若该连线也在集合R中,则称R为凸集。下面给出了几个凸集和非凸集合的例子。第二十七页,讲稿共六十八页哦定
16、定义义2.2设f(x)=f(x1,x2,xn)为一个n元函数,若对任意f(x1),f(x2)f(x),任意正数,01,有f(x1)+(1-)f(x2)f x1 +(1-)x2(2-23)x0 x1 x1+(1-)x2 x2 图2-4 一元型凸函数f(x1)f(x1)+(1-)f(x2)f x1+(1-)x2f(x)f(x2)则称f(x)为定义域上的型凸函数。一元型凸函数可用图2-4所示的几何图形表示。第二十八页,讲稿共六十八页哦定定义义2.3设f(x)=f(x1,x2,xn)为一个n元函数,若对任意f(x1),f(x2)f(x),任意正数,01,有f x1 +(1-)x2f(x1)+(1-)f
17、(x2)(2-24)图2-5 一元型凸函数x1 x1+(1-)x2 x2 x f(x1)f x1+(1-)x2f(x1)+(1-)f(x2)f(x)f(x2)则称f(x)为定义域上的型凸函数,一元型凸函数可用图2-5所示的几何图形表示。第二十九页,讲稿共六十八页哦2极大离散熵定理 设信源的消息个数为M,则H(X)logM,等号当且仅当信源X中各消息等概 时成立,即各消息等概分布时,信源熵最大。证明方法一:利用不等式证明方法一:利用不等式log x x -1-1等号在x=1时成立(见图 2-6)图2-6logx x1关系 曲线 x-1logx10 x第三十页,讲稿共六十八页哦上面两种证明方法是信
18、息论中上面两种证明方法是信息论中经常用到的证明方法经常用到的证明方法 证明方法二:利用证明方法二:利用log x的的型凸函数性质型凸函数性质=log1=0 证毕H(X)-logM第三十一页,讲稿共六十八页哦3熵函数的性质(1)对称性对称性集合X=x1,x2,xN 中的各元素x1,x2,xN任意改变其顺序时,熵只和分布(概率)有关,不关心某个具体事件对应哪个概率。例如 和 的熵是相等的。第三十二页,讲稿共六十八页哦 (4)扩展性扩展性:离散事件集 ,增加一个不可能事件xN+1后,得到集合,0,则两个集合的熵相等 (2)非负性非负性:H(X)0 (3)确定性确定性:在集合X=(x1,x2,xN)中
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息 度量 讲稿
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内