信息论简述精选PPT.ppt
《信息论简述精选PPT.ppt》由会员分享,可在线阅读,更多相关《信息论简述精选PPT.ppt(97页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、信息论简述第1页,此课件共97页哦第第1章章 信息论基础信息论基础 内容提要信息论是应用近代概率统计方法研究信息传输、交换、存储和处理的一门学科,也是源于通信实践发展起来的一门新兴应用科学。本章首先引出信息的概念,简述信息传输系统模型的各个组成部分,进而讨论离散信源和离散信道的数学模型,简单介绍几种常见的离散信源和离散信道。第2页,此课件共97页哦 1948年香农在年香农在Bell System Technical Journal上发表了上发表了A Mathematical Theory of Communication。通信的基本问题是在彼时彼地精确地通信的基本问题是在彼时彼地精确地或近似地
2、再现此时此地发出的消息。或近似地再现此时此地发出的消息。第3页,此课件共97页哦1.1 1.1 信息的概念信息的概念物质、能量和信息是构成客观世界的三大要素。信息是物质和能量在空间和时间上分布的不均匀程度,或者说信息是关于事物运动的状态和规律。通信系统中形式上传输的是消息,实质上传输的是信息,消息中包含信息,消息是信息的载体。信息论信息论是研究信息的基本性质及度量方法,研究信息的获取、传输、存储和处理的一般规律的科学。第4页,此课件共97页哦l信息:信息是任何随机事件发生后所包含的内容(信息量特点)l消息:消息是信息的载体(互联网上的文字与图像)l信号:信号是消息的载体(调制原因)三者之间的关
3、系三者之间的关系:信息不等于消息,消息中包含信息,信息不等于消息,消息中包含信息,是信息的载体,信号携带消息,是消息的载体是信息的载体,信号携带消息,是消息的载体1.1 1.1 信息的概念信息的概念第5页,此课件共97页哦 20世世纪纪20年年代代奈奈奎奎斯斯特特(Nyquist,H)和和哈哈特特莱莱(Hartley,LVR)提出了信息的定义)提出了信息的定义 19241924年奈奎斯特解释了信号带宽和信息速率之间的关系年奈奎斯特解释了信号带宽和信息速率之间的关系 19281928哈哈特特莱莱最最早早研研究究了了通通信信系系统统传传输输信信息息的的能能力力,给给出出了了信信息息度量方法度量方法
4、 19361936年年阿阿姆姆斯斯特特朗朗(ArmstrongArmstrong)提提出出了了增增大大带带宽宽可可以以使使抗抗干干扰扰能能力加强力加强 1941194119441944年年香香农农对对通通信信和和密密码码进进行行深深人人研研究究,用用概概率率论论的的方方法法研研究究通通信信系系统统,揭揭示示了了通通信信系系统统传传递递的的对对象象就就是是信信息息,并并对对信信息息给给以以科科学学的的定定量量描描述述,提提出出了了信信息息熵熵的的概概念念。指指出出通通信信系系统统的的中中心心问问题题是是在在噪噪声声下下如如何何有有效效而而可可靠靠地地传传送送信信息息以以及及实实现现这这一一目目标
5、标的的主主要要方方法法是是编编码码等等。香香农农因因此此成成为为信信息息论论的的奠基人。奠基人。1.2 1.2 信息论与编码技术的发展简史信息论与编码技术的发展简史第6页,此课件共97页哦 5050年代信息论在学术界引起了巨大的反响年代信息论在学术界引起了巨大的反响 6060年年代代信信道道编编码码技技术术有有较较大大进进展展,使使它它成成为为信信息息论论的的又又一一重重要要分分支支;信信源源编编码码的的研研究究落落后后于于信信道道编编码码。香香农农 19591959年年的的文文章章(Coding(Coding theorems theorems for for a a discrete di
6、screte source source with with a a fidelity fidelity criterion)criterion)系系统统地地提提出出了了信信息息率率失失真真理理论论,它它是是数数据据压压缩缩的的数数学学基基础础,为为各各种种信信源源编编码码的的研究奠定了基础研究奠定了基础 到到7070年年代代,有有关关信信息息论论的的研研究究,从从点点与与点点间间的的单单用用户户通通信信推推广广到到多多用用户户系系统统的的研研究究。19721972年年盖盖弗弗(CaerCaer)发发表表了了有有关关广广播播信信道道的的研研究究,以以后后陆陆续续有有关关于于多多接接入入信信道道
7、和和广广播播信信道道模模型型的的研研究究,但但由由于于这这些些问问题题比比较较难难,到到目目前前为为止止,多多用用户户信信息息论论研研究究得得不不多多,还还有有许许多多尚尚待待解决的课题。解决的课题。第7页,此课件共97页哦对于信息论的研究,一般划分为三个不同的范畴:广义信息论,包括信息论在自然和社会中的新的应用,如模式识别、机器翻译、自学习自组织系统、心理学、生物学、经济学、社会学等一切与信息问题有关的领域。实用信息论,研究信息传输和处理问题,也就是狭义信息论方法在调制解调、编码译码以及检测理论等领域的应用。狭义信息论,即通信的数学理论,主要研究狭义信息的度量方法,研究各种信源、信道的描述和
8、信源、信道的编码定理。第8页,此课件共97页哦1.3 1.3 信息传输系统信息传输系统 通信的基本问题是在彼时彼地精确地或近似地再现此时此地发出的消息。各种通信系统,一般可概括为图1.1所示的统计模型:干干扰扰源源 信信道道信道译码器信道译码器信道编码器信道编码器信源译码器信源译码器信源编码器信源编码器信宿信宿信源信源等效信源等效信宿等效干扰信道图图1-1 信息传输系统模型信息传输系统模型 第9页,此课件共97页哦这个模型包括以下五个部分:3.信道信道 信道是信息传输和存储的媒介。4.译码器译码器 译码是编码的逆变换,分为信道译码和信源译码。5.信宿信宿 信宿是消息的接收者。2.编码器编码器
9、编码器是将消息变成适合于信道传送的信号的设备。1.信源信源 信源是产生消息的源。编码器信源编码器,提高传输效率信道编码器,提高传输可靠性第10页,此课件共97页哦1.4 1.4 香农信息的定义香农信息的定义 三个基本概念l样本空间:l概率测度:l概率空间:对于离散情况下概率空间第11页,此课件共97页哦1.先验概率:表示选择符号作为消息的概率2.香农信息量(自信息量):(图像)3.后验概率:表示接受端收到的消息为发送端收到的消息是4.互信息(收信者获得的信息量):2.香农信息量:(图像)补充例题补充例题第12页,此课件共97页哦1.31.3 离散信源及其数学模型离散信源及其数学模型 信源是产生
10、消息的源,根据X的不同情况,信源可分为以下类型:根据信源的统计特性,离散信源又分为两种:离散信源离散信源 消息集X为离散集合。波形信源波形信源 时间连续的信源。连续信源连续信源 时间离散而空间连续的信源。无记忆信源无记忆信源 X的各时刻取值相互独立。有记忆信源有记忆信源 X的各时刻取值互相有关联。第13页,此课件共97页哦1.3.1 离散无记忆信源离散无记忆信源 离散无记忆信源离散无记忆信源(Discrete Memoryless Source,简记为DMS)输出的是单个符号的消息,不同时刻发出的符号之间彼此统计独立,而且符号集中的符号数目是有限的或可数的。离散无记忆信源的数学模型为离散型的概
11、率空间,即:p(ai):信源输出符号消息ai的先验概率;满足:0 p(ai)1,1 i n 第14页,此课件共97页哦l联合自信息量联合自信息量:l联合熵联合熵 满足:0 p(aibj)1,1 i n,1jm,第15页,此课件共97页哦 2.1 单符号离散信源 四、互信息量和条件互信息量四、互信息量和条件互信息量 互信息量的概念互信息量的概念在通信系统中,发送端发出的信息经有噪信道后,在接收在通信系统中,发送端发出的信息经有噪信道后,在接收端收到的信息量的多少要用端收到的信息量的多少要用互信息量互信息量来描述。来描述。q设设X X为信源发出的离散消息集合;为信源发出的离散消息集合;Y Y为信宿
12、收到的离散消为信宿收到的离散消息集合;息集合;q信源发出的消息,经过有噪声的信道传递到信宿信源发出的消息,经过有噪声的信道传递到信宿;第16页,此课件共97页哦 其间信源其间信源X X和信宿和信宿Y Y的数学模型为:的数学模型为:在系统中,在系统中,q若信道是无噪的,收到信息若信道是无噪的,收到信息b bj j后,即可获得信息量后,即可获得信息量I(aI(aj j)。q若信道存在噪声,在接收端收到若信道存在噪声,在接收端收到b bj j后后重新估计重新估计信源发出的各信源发出的各个消息个消息p(ap(ai ibbj j)。我们称之为。我们称之为后验概率后验概率。0p(ai)1p(ai)=10p
13、(bj)1p(bj)=1第17页,此课件共97页哦因此,我们称:因此,我们称:n先验概率:信源发出消息先验概率:信源发出消息ai的概率的概率P(ai)。n后验概率:信宿收到消息后验概率:信宿收到消息bj后后,推测信源发出推测信源发出ai 的概率的概率,即条件概率即条件概率p(ai bj)。互信息量的定义互信息量的定义 ai的后验概率与先验概率之比的对数为的后验概率与先验概率之比的对数为bj对对ai的互信息量。的互信息量。用用I(ai;bj)表示。表示。互信息量等于自信息量减去条件自信息量互信息量等于自信息量减去条件自信息量第18页,此课件共97页哦v互信息有两方面的含义:互信息有两方面的含义:
14、v表示事件表示事件bj出现前后关于事件出现前后关于事件ai的不确定性减少的量;的不确定性减少的量;v事件事件bj出现以后信宿获得的关于事件出现以后信宿获得的关于事件ai的信息量。的信息量。v对互信息量的理解对互信息量的理解 观察者站在输出端观察者站在输出端v I(ai;bj)=logp(ai)logp(ai|bj)=I(ai)I(ai|bj)vI(ai):在在 bj 一无所知的情况下一无所知的情况下 ai 存在的不确定度;存在的不确定度;vI(ai|bj):收到收到 bj 后对后对 ai 仍然存在的不确定度;仍然存在的不确定度;vI(ai;bj):收到收到 bj 前和收到前和收到 bj 后后不
15、确定度被消除不确定度被消除的部分的部分获得信息量获得信息量信道信道aibj第19页,此课件共97页哦观察者站在输入端观察者站在输入端qI(bj;ai)=logp(bj)logp(bj|ai)=I(bj)I(bj|ai)q 观察者得知输入端发出观察者得知输入端发出 ai 前、后对输出端出现前、后对输出端出现 bj 的不确定度的差。的不确定度的差。信道信道aibj第20页,此课件共97页哦v观察者站在通信系统总体立场上观察者站在通信系统总体立场上v互信息等于通信前后不确定度的差值互信息等于通信前后不确定度的差值n通信前:通信前:X和和Y之间没有任何关系,即之间没有任何关系,即X、Y统计独立。统计独
16、立。即即 p(xi yj)=p(xi)p(yj),先验不确定度,先验不确定度n 通信后:通信后:p(xi yj)=p(xi)p(yj|xi)=p(yj)p(xi|yj),后验,后验 不确定度不确定度第21页,此课件共97页哦 互信息量的性质互信息量的性质1)互信息的对称性互信息的对称性2)互信息可为零互信息可为零 物理含义:系统中干扰极大物理含义:系统中干扰极大3)互信息可为正值或负值互信息可为正值或负值4)任何两个事件之间的互信息不可能大于其中任一事任何两个事件之间的互信息不可能大于其中任一事件的自信息件的自信息信息量的丢失,不确定性增加第22页,此课件共97页哦 条件互信息量条件互信息量定
17、义:定义:联合集联合集XYZ中,在给定中,在给定ck的条件下的条件下ai与与bj之间的之间的互信息量定义为条件互信息量:互信息量定义为条件互信息量:在在XYZ联合集上,还有联合集上,还有ai与与bjck之间的互信息量之间的互信息量第23页,此课件共97页哦由前式可得:由前式可得:此外,还有:此外,还有:将上式两边相加有:将上式两边相加有:第24页,此课件共97页哦根据互易性有:根据互易性有:第25页,此课件共97页哦例:例:有一信源有一信源U包含包含8个消息个消息07,为了便于在二进制,为了便于在二进制信道上传送,将它们编为三位二进码,信源的先验信道上传送,将它们编为三位二进码,信源的先验概率
18、及相应的代码如下:概率及相应的代码如下:试求:试求:填上表格中的后三列填上表格中的后三列 x0与各消息的互信息量与各消息的互信息量 在收到(给定)在收到(给定)x0条件下,条件下,y1与各消息的互与各消息的互 信息量。信息量。在收到(给定)在收到(给定)x0y1条件下,条件下,z1与与U3消息的消息的互信息量互信息量.收到整个代码组收到整个代码组x0y1z1出现后提供的有关消出现后提供的有关消息息U3的互信息量。的互信息量。第26页,此课件共97页哦信源消息信源消息二进制代码二进制代码先验先验概率概率收到收到0后的后后的后验概率验概率收到收到01后的后的后验概率后验概率收到收到011后的后的后
19、验概率后验概率0(U0)000(x0y0z0)1/41(U1)001(x0y0z1)1/42(U2)010(x0y1z0)1/83(U3)011(x0y1z1)1/84(U4)100(x1y0z0)1/165(U5)101(x1y0z1)1/166(U6)110(x1y1z0)1/167(U7)111(x1y1z1)1/16第27页,此课件共97页哦解:解:收到第一个收到第一个0(x0)后后U0U7的后验概率:的后验概率:第28页,此课件共97页哦信源消息信源消息二进制代码二进制代码先验先验概率概率收到收到0后后的后验的后验概率概率收到收到01后后的后验概的后验概率率收到收到011后的后的后验
20、概率后验概率0(U0)000(x0y0z0)1/41/31(U1)001(x0y0z1)1/41/32(U2)010(x0y1z0)1/81/63(U3)011(x0y1z1)1/81/64(U4)100(x1y0z0)1/1605(U5)101(x1y0z1)1/1606(U6)110(x1y1z0)1/1607(U7)111(x1y1z1)1/160第29页,此课件共97页哦收到收到01后的后验概率:后的后验概率:收到收到011后的后验概率:后的后验概率:第30页,此课件共97页哦信源消息信源消息二进制代码二进制代码先验先验概率概率收到收到0后后的后验的后验概率概率收到收到01后后的后验概
21、的后验概率率收到收到011后后的后验概的后验概率率0(U0)000(x0y0z0)1/41/3001(U1)001(x0y0z1)1/41/3002(U2)010(x0y1z0)1/81/61/203(U3)011(x0y1z1)1/81/61/214(U4)100(x1y0z0)1/160005(U5)101(x1y0z1)1/160006(U6)110(x1y1z0)1/160007(U7)111(x1y1z1)1/16000第31页,此课件共97页哦 x0与各消息的互信息量与各消息的互信息量 在已收到(给定)在已收到(给定)x0条件下,条件下,y1与各消息的与各消息的 互信息量。互信息量
22、。第32页,此课件共97页哦 在已收到(给定)在已收到(给定)x0y1条件下,条件下,z1与与U3消息的互信消息的互信息量息量.收到整个代码组收到整个代码组x0y1z1出现后提供的有关消息出现后提供的有关消息U3的互信息量。的互信息量。第33页,此课件共97页哦物理含义我们还可以用下式求得代码组我们还可以用下式求得代码组x0y1z1出现后提供有关出现后提供有关U3的信息量:的信息量:011第34页,此课件共97页哦 2.1.5 平均互信息量平均互信息量 平均互信息量的定义平均互信息量的定义定义:互信息量定义:互信息量I(ai;bj)在联合概率空间在联合概率空间p(aibj)中的统计平均值为平均
23、互信息量中的统计平均值为平均互信息量同理有:同理有:第35页,此课件共97页哦 平均互信息量的物理意义平均互信息量的物理意义 平均互信息量可以定义为无条件熵与条平均互信息量可以定义为无条件熵与条件熵的差:件熵的差:H(X;Y)=H(X)H(X Y)=H(Y)H(Y X)=H(X)H(Y)H(XY)H(X)是信源集的符号熵,即发送端发出的平均信息量。H(XY)为信道干扰引起损失的平均信息量,即信道疑义度。所以该式表示为:接收到的平均信息量=发出的平均信息量信道损失的 信息量。第36页,此课件共97页哦H(X)+H(Y)表示在通信前系统的先验不确定性。H(XY)表示输入集符号经有噪信道传输到输出端
24、,为系统的后验不确定性。所以该式表示为:接收到的平均信息量=系统的先验不确定性系统的后验不确定性。H(Y)是输出集的符号熵,表示要确认Y所需的信息量H(YX)为噪声熵,表示发出X后要确认Y尚需增加的信息量所以该式表示为:接收到的平均信息量=确认Y所必需的平均信息量 发出X后要确认Y尚需增加的信息量。第37页,此课件共97页哦 平均互信息量的性质平均互信息量的性质 对称性对称性 I(X;Y)=I(Y;X)非负性非负性 I(X;Y)0 极值性极值性 I(X;Y)H(X)I(X;Y)H(Y)第38页,此课件共97页哦 凸函数性凸函数性q 平均互信息平均互信息I(X;Y)信道传递概率分布信道传递概率分
25、布P(Y/X)的的U型型凸函数凸函数q 平均互信息平均互信息I(X;Y)是信源概率分布是信源概率分布P(X)的的 型型凸函数凸函数 定理说明:对于一定的信道转移概率分布,总定理说明:对于一定的信道转移概率分布,总可以找到某一个先验概率分布的信源可以找到某一个先验概率分布的信源X,使平均互信,使平均互信息量达到相应的最大值息量达到相应的最大值Imax,这时称这个信源为该这时称这个信源为该信道的匹配信源。可以说不同的信道转移概率对应信道的匹配信源。可以说不同的信道转移概率对应不同的不同的Imax。第39页,此课件共97页哦 2.1 单符号离散信源例例1:已知:已知 联合概率分布如下,求:联合概率分
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 简述 精选 PPT
限制150内