信息的度量课件.ppt
《信息的度量课件.ppt》由会员分享,可在线阅读,更多相关《信息的度量课件.ppt(68页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、关于信息的度量现在学习的是第1页,共68页内容提要:根据香农对于信息的定义,信息是一个系统不确定性的度量,尤其在通信系统中,研究的是信息的处理、传输和存储,所以对于信息的定量计算是非常重要的。本章主要从通信系统模型入手,研究离散情况下各种信息的描述方法及定量计算,讨论它们的性质和相互关系。第2章 信息的度量现在学习的是第2页,共68页2.1 自信息量和互信息量 一个事件的自信息量就是对其不确定性的度量。一个事件的自信息量就是对其不确定性的度量。互信息量则表明了两个随机事件的相互约束程度。互信息量则表明了两个随机事件的相互约束程度。 对于随机事件集X = x1,x2,xi,xI中的随机事件xi,
2、其出现概率记为q(xi),将两个事件xi ,yj同时出现的概率记为p(xi yj),则q(xi) ,p(xi yj)应满足:IiiixqIixq11)(, 2 , 10)( 相应的条件概率为 IiJjjijiyxpyxp111)(0)()()()()()()(ijiijjjijixqyxpxypyyxpyx现在学习的是第3页,共68页信息量直观的定义为:收到某消息获得的信息量 = 不确定性减少的量 将某事件发生所得到的信息量记为I(x),I(x)应该是该事件发生的概率的函数,即I(x)=fq(x) 211 自信息量和条件自信息量现在学习的是第4页,共68页1自信息量 直观地看,自信息量的定义应
3、满足以下四点: a. I(x)应该是q(x)的单调递减函数:概率小的事件一旦发生赋予的信息量大,概率大的事件如果发生则赋予的信息量小;b.信息量应具有可加性:对于两个独立事件,其信息量应等于各事件自信息量之和;c.当q(x)=1时,I(x)= 0:表示确定事件发生得不到任何信息; d.当q(x)=0时,I(x):表示不可能事件一旦发生,信息量将无穷大。 现在学习的是第5页,共68页综合上述条件,将自信息量定义自信息量定义为: (2-1) )(log)(xqxI自信息量的单位与log函数所选用的对数底数有关, 如底数分别取 2、e、 10,则自信息量单位分别为:比特、奈特、哈特【例例2.3】若盒
4、中有6个电阻,阻值为1、2、3的分别为2个、1个、3个,将从盒子中取出阻值为i的电阻记为事件 (i = 1,2,3),则事件集X = x1, x2, x3,其概率分布 计算出各事件的自信息量列表2-1如下:ix216131)(321xxxXqX现在学习的是第6页,共68页消息xi x1 x2 x3 概率分布q (xi) 1/3 1/6 1/2 自信息量I (xi) log 3 log 6 log 2 自信息量自信息量I( (xi) )代表两种含义代表两种含义: 1.事件xi发生以前,表示事件发生的先验不确定性2.当事件xi发生以后,表示事件xi所能提供的最大信息量(在无噪情况下) 现在学习的是
5、第7页,共68页二维联合集X Y上元素xi yj的联合自信息量I(xi yj)定义为: (2-3) )(log)(jijiyxpyxI(2-4)2.条件自信息量在已知事件yj条件下,随机事件xi发生的概率为条件概率(xiyj),条件自信息量 定义为: )(log)(jijiyxyxI)(jiyxI现在学习的是第8页,共68页 【例例2.6】某住宅区共建有若干栋商品房,每栋有5个单元,每个单元住有12户,甲要到该住宅区找他的朋友乙,若: 1. 甲只知道乙住在第5栋,他找到乙的概率有多大?他能得到多少信息? 2. 甲除知道乙住在第5栋外,还知道乙住在第3单元,他找到乙的概率又有多大?他能得到多少信
6、息?用xi代表单元数,yj代表户号:(1)甲找到乙这一事件是二维联合集X Y上的等概分布 ,这一事件提供给甲的信息量为 I(xi yj ) = - log p(xi yj ) = log 60 = 5.907(比特) 601)(jiyxp(2)在二维联合集X Y上的条件分布概率为 ,这一事件提供给甲的信息量为条件自信息量 I(yjxi) = -log p(yjxi) = log12 = 3.585(比特) 121)(ijxyp现在学习的是第9页,共68页1.互信息量从通信的角度引出互信息量的概念信源符号X=x1,x2,xI ,xia1,a2,ak,i = 1, 2 , I。 经过信道传输,信宿
7、方接收到符号Y = y1,y2,yJ,yjb1,b2,bD,j = 1, 2, ,J。图21简单的通信模型 b1,b2,bD信源符号集a1,a2, ak信宿符号集干扰x1,x2,xIy1,y2,yJ信源信源 信道信道信宿信宿212 互信息量和条件互信息量互信息量和条件互信息量现在学习的是第10页,共68页事件xi是否发生具有不确定性,用I(xi)度量。接收到符号yj后,事件xi是否发生仍保留有一定的不确定性,用I(xiyj)度量。观察事件前后,这两者之差就是通信过程中所获得的信息量,用I(xi ; yj )表示: 。)()();(jiijiyxIxIyxI)()(logijixqyx注:式(2
8、-6)的I( (xi ;yj ) ) 和式(2-3)的I( (xiyj ) )的区别在于:前者是事件xiX和事件yjY之间的互信息量,后者是二维空间XY 上元素xi yj 的自信息量。称(2-6)式为事件xi和事件yj之间的互信息量互信息量。(2-6)现在学习的是第11页,共68页根据概率互换公式根据概率互换公式p( (xi yj) = ) = p( (yjxi) )q( (xi)=)=( (xiyj)()(yj) ) 互信息量互信息量I( (xi ; ;yj ) )有多种表达形式有多种表达形式: : (2-7) (2-8)()()()()()(log);(jijijijijiyxIyIxIy
9、xqyxpyxI)()()()(log);(ijjjijjixyIyIyxypyxI将事件互信息量的概念推广至多维空间:在三维X Y Z联合集中,有: I(xi ; yj zk)= I(xi ; yj )+ I(xi; zkyj) (2-9) 类似,在N维U1 U2 UN联合空间,有: I (u1; u2u3 uN ) = I (u1; u2 )+ I (u1; u3u2) + + I (u1; uiu2 u i-1)+ + I (u1; uNu2 uN -1) (2-10) 现在学习的是第12页,共68页三维X Y Z联合集中,在给定条件zk的情况下, xi , yj的互信息量I(xi ;y
10、jzk )定义为: (2-11))()(log);(kikjikjizxpzyxpzyxI2条件互信息量现在学习的是第13页,共68页3互信息量的性质 (1 1)互易性)互易性 I(xi ;yj )= I(yj ; xi) (2-12) (2)可加性:);();();();();(12112123121321NNiiNuuuuIuuuuIuuuIuuIuuuuI现在学习的是第14页,共68页(4) 互信息量I(xi ;yj)可以是正数,也可以是负数。 (3)当xi ,yj统计独立时,互信息量I(xi ;yj) = 0及条件互信息量0);(kjizyxI(5)两个事件的互信息量不大于单个事件的自
11、信息量,即有: (2-13) )()();(jijiyIxIyxI现在学习的是第15页,共68页【例例2. .8】信源包含7个消息x0,x1,x2,x3,x4,x5,x6 信源编码器将其对应编成7个三位二进制数000,001,110。各消息的先验概率已知,在接收过程中,每收到一个数字,各消息的后验概率都相应地发生变化。考虑在接受100三个数字的过程中,各后验概率的变化,计算信息量I(x4;100)。信源消息码字消息先验概率消息后验概率收到1后收到10后收到100后x0 0001/16000 x1 0011/16000 x2 0101/16000 x3 0111/16000 x4 1001/22
12、/34/51x5 1011/81/61/50 x61101/81/600表2-4为7个三位二进制数对应的各种概率。现在学习的是第16页,共68页 根据给定的先验概率,可算出: 21)(4xp3281812121) 1(4xp54613232)10(4xp 将各种后验概率的计算结果列于表2-3中,再根据式(2-10)计算出互信息量:I (x4;100 ) = I (x4; 1)+ I (x4; 01)+ I (x4; 010) (比特) 也可直接计算出: (比特)10()100(log) 1()10(log)() 1(log444444xpxpxpxpxpxp12log541log3254log
13、2132log1211log)()100(log)100;(444xpxpxIP (x4100) = 1现在学习的是第17页,共68页2 22 2 离散集的平均自信息量离散集的平均自信息量 1平均自信息量(熵) 人们注意的是整个系统的统计特性,当信源各个消息的出现概率相互统计独立时,这种信源称为无记忆信源,无记忆信源的平均自信息量定义为各消息自信息量的概率加权平均值(统计平均值),即平均自信息量平均自信息量H( (X) )定义为: (2-15 ) iiiiiixqxqxIxqXH)(log)()()(H(X)的表达式与统计物理学中的热熵具有相类似的形式,在概念上二者也有相同之处,故借用熵这个词
14、把H(X)称为集合X的信息熵信息熵,简称熵。 现在学习的是第18页,共68页【例例2. .9】计算下列信源的熵(1)信源一: 熵 H(X1) =-0.99 log 0.99 0.01 log 0.01 = 0.08(比特/符号)(2)信源二:等概信源熵 H(X2) = - 0.5 log 0.5 - 0.5 log 0.5 = 1(比特/符号)(3)信源三: 等概信源熵 H(X3) = -40.25 log 0.25 = log4 = 2(比特/符号)5 . 05 . 0)(1022xxXqX25. 025. 025. 025. 0)(321033xxxxXqX01. 099. 0)(1011
15、xxXqX现在学习的是第19页,共68页 (5) 信源五:一般情况下,二元信源的概率分布为 熵 H(X) = log -(1-)log(1-)记H2() = log -(1-)log(1-)H2()与的关系如图2-2所示。110)(55XqX(4)信源四: 信源为确定事件 熵H(X4) = - 0 log 0 1 log 1 = 0 计算结果说明确定事件的熵为零 10)(1044xxXqX H 2 2()() 0 0.5 1 图图 2-2 2-2 H2( () )与与关系关系现在学习的是第20页,共68页2平均条件自信息量(条件熵)ijjiijjijijiyxyxpyxIyxpYXH)(log
16、)()()()((2-16)若事件xi yj的联合分布概率为p(xi yj ),给定yj条件下事件xi的条件自信息量为I (xiyj),则H (XY) 定义为:现在学习的是第21页,共68页当X ,Y统计独立时,p (xi yj) = q ( xi )( yj ),(xiyj) = q (xi),则 )()(jiijjiyxIyxpYXH XHxqxqxqxqyYXHiiiijiij)(log)()(log)()(从通信角度来看: 若将X = x1,x2,xi,视为信源输出符号; Y = y1,y2,yj,视为信宿接收符号;I (xiyj)可看作信宿收到yj后,关于发送的是否为xi仍然存在的疑
17、义度(不确定性),则 反映了经过通信后,信宿符号yj(j = 1, 2,)关于信源符号xi(i = 1, 2,)的平均不确定性。(2-17)现在学习的是第22页,共68页类似,若给定xi条件下事件yj的条件自信息量为I (yjxi),则H (YX)定义为 (2-18)当X ,Y统计独立时,有p (xi yj) = q ( xi )( yj ), ,则 (2-19)ijijijjiijjixypyxpxyIyxpXYH)(log)()()()()()(jijyxyp YHyyyyxqXYHjjjjijji)(log)()(log)()(存在以下两种极端情况: (1)对于无噪信道H (XY) =
18、0 (2)在强噪声情况下,收到的Y与X毫不相干,可视为统计独立,H (XY) = H (X) 现在学习的是第23页,共68页(2)对于强噪信道,有H (YX)= H (Y) 。(1) 对于无扰信道,有H (YX) = 0。从通信角度来看,H (YX)是发出确定消息xi后,由于信道干扰而使yj存在的平均不确定性,称H (YX)为噪声熵(散布度)。存在以下两种极端情况:现在学习的是第24页,共68页由熵、条件熵、联合熵的定义式可导出三者的关系式 H (X Y) = H (X) + H (YX)= H (Y) +H (XY) (221) H( (X Y)=)= H( (X)+)+ H( (Y) )
19、(2-22)上式反映了信息的可加性。当X,Y统计独立时,有3 3联合熵联合熵联合熵H (XY) 是定义在二维空间X Y上,对元素xi yj的自信息量的统计平均值,若记事件xi yj出现的概率为p (xi yj),其自信息量为I (xi yj),则联合熵H (X Y) 定义为 (2-20) ijjijiyxIyxpXYH)()(ijjijiyxpyxp)(log)(现在学习的是第25页,共68页1凸集合与凸函数简单介绍凸集和凸函数的概念。定义定义2.12.1 是n维实矢量空间集合R中任意两个n维矢量,对实数,0 1,有 +(1-) R则称R为凸集合凸集合。 ),(21n),(21n222 熵函数
20、的性质现在学习的是第26页,共68页图23 一维和二维凸集合的例子凸集合非凸集合 从几何上来看,若,是集合R中的任意两点,+(1-)表示这两点间的连线,若该连线也在集合R中,则称R为凸集。下面给出了几个凸集和非凸集合的例子。现在学习的是第27页,共68页定义定义2.2设f(x) = f (x1, x2, , xn) 为一个n元函数,若对任意f (x1), f (x2) f (x) ,任意正数,0 1,有f (x1) +(1-)f (x2) f x1 +(1-)x2 (2-23)x0 x1 x1+(1-) x2 x2 图2-4 一元型凸函数f (x1)f (x1)+(1-) f (x2) f x
21、1+(1-)x2 f (x)f (x2)则称f(x)为定义域上的型凸函数。一元型凸函数可用图2-4所示的几何图形表示。现在学习的是第28页,共68页定义定义2.3设f(x) = f (x1, x2, , xn) 为一个n元函数,若对任意f (x1), f (x2) f (x) ,任意正数,0 1,有f x1 +(1-)x2 f (x1) +(1-)f (x2) (2-24)图2-5 一元型凸函数x1 x1+(1-) x2 x2 x f (x1 )f x1+(1-) x2f (x1)+(1-) f (x2)f (x) f (x2 )则称f(x)为定义域上的型凸函数,一元型凸函数可用图2-5所示的
22、几何图形表示。现在学习的是第29页,共68页2极大离散熵定理 设信源的消息个数为M,则H(X) logM,等号当且仅当信源X中各消息等概 时成立,即各消息等概分布时,信源熵最大。M1 iiiiiMxqxqxqMXHlog)()(1log)(log证明方法一:利用不等式证明方法一:利用不等式log x x - 1- 1等号在x = 1时成立(见图 2-6) iiiMxqxq)(1log)(iiiMxqxq) 1)(1)(iiixqM011)(1图2-6 logx x1关系 曲线 x-1 log x 1 0 x现在学习的是第30页,共68页上面两种证明方法是信息论中上面两种证明方法是信息论中经常用
23、到的证明方法经常用到的证明方法 证明方法二:利用证明方法二:利用log x的的型凸函数性质型凸函数性质 = log 1 = 0 证毕iiiMxqxq)(1log)(iiiMxqxq)(1)(logiM1logH(X)-log M现在学习的是第31页,共68页3熵函数的性质 (1)对称性对称性集合X = x1,x2,xN 中的各元素x1,x2,xN任意改变其顺序时,熵只和分布(概率)有关,不关心某个具体事件对应哪个概率。例如 和 的熵是相等的。818141214321xxxx214181814321xxxx现在学习的是第32页,共68页 (4)扩展性扩展性:离散事件集 ,增加一个不可能事件xN+
24、1后,得到集合,0,则两个集合的熵相等 NNpppxxx212112121NNNxpppxxx (2)非负性非负性:H(X) 0010021Nixxxx (3)确定性确定性:在集合X = (x1,x2,xN)中,若有一个事件是必然事件,则其余事件必为不可能事件,即该集合的概率分布为 现在学习的是第33页,共68页(5)可加性可加性:集合X = x1,x2,xi,xi+1,xN的概率分布为:则下式成立:H(X)= H(x1,x2,xi,xi+1,xN) (2-25)),()(),(111121121iiiiiiiiNiiiippppppHppxxxxxxxH)()()()()(121121Nii
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息 度量 课件
限制150内