信息论基础第一章讲义.ppt





《信息论基础第一章讲义.ppt》由会员分享,可在线阅读,更多相关《信息论基础第一章讲义.ppt(22页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、信息论基础第一章讲义现在学习的是第1页,共22页现在学习的是第2页,共22页1.1 信息的概念物质、能量和信息是构成客观世界的三大要素。信息是物质和能量在空间和时间上分布的不均匀程度,或者说信息是关于事物运动的状态和规律。 通信系统中形式上传输的是消息,实质上传输的是信息,消息中包含信息,消息是信息的载体。信息论是研究信息的基本性质及度量方法,研究信息的获取、传输、存储和处理的一般规律的科学。 现在学习的是第3页,共22页对于信息论的研究,一般划分为三个不同的范畴: 广义信息论,包括信息论在自然和社会中的新的应用,如模式识别、机器翻译、自学习自组织系统、心理学、生物学、经济学、社会学等一切与信
2、息问题有关的领域。 实用信息论,研究信息传输和处理问题,也就是狭义信息论方法在调制解调、编码译码以及检测理论等领域的应用。 狭义信息论,即通信的数学理论,主要研究狭义信息的度量方法,研究各种信源、信道的描述和信源、信道的编码定理。现在学习的是第4页,共22页1.2 信息传输系统 通信的基本问题是在彼时彼地精确地或近似地再现此时此地发出的消息。 各种通信系统,一般可概括为图1.1所示的统计模型: 干扰源 信道信道译码器信道编码器信源译码器信源译码器信宿信源等效信源等效信宿等效干扰信道图1-1 信息传输系统模型 现在学习的是第5页,共22页这个模型包括以下五个部分:3. 信道 信道是信息传输和存储
3、的媒介。4. 译码器 译码是编码的逆变换,分为信道译码和信源译码。5. 信宿 信宿是消息的接收者。2. 编码器 编码器是将消息变成适合于信道传送的信号的设备。1.信源 信源是产生消息的源。编码器信源编码器,提高传输效率信道编码器,提高传输可靠性现在学习的是第6页,共22页1.3 离散信源及其数学模型 信源是产生消息的源,根据X的不同情况,信源可分为以下类型: 根据信源的统计特性,离散信源又分为两种:离散信源 消息集X为离散集合。波形信源 时间连续的信源。连续信源 时间离散而空间连续的信源。无记忆信源 X的各时刻取值相互独立。有记忆信源 X的各时刻取值互相有关联。现在学习的是第7页,共22页 离
4、散无记忆信源(Discrete Memoryless Source,简记为DMS)输出的是单个符号的消息,不同时刻发出的符号之间彼此统计独立,而且符号集中的符号数目是有限的或可数的。离散无记忆信源的数学模型为离散型的概率空间,即: )()()()(2211IIxqxxqxxqxXqXq(xi ):信源输出符号消息xi的先验概率; 满足:0 q(xi) 1,1 i I Iiixq11)(现在学习的是第8页,共22页 实际情况下,信源输出的消息往往不是单个符号,而是由许多不同时刻发出的符号所组成的符号序列。设序列由N个符号组成,若这N个符号取自同一符号集 a1 , a2 , , ak,并且先后发出
5、的符号彼此间统计独立,我们将这样的信源称作离散无记忆的N维扩展信源。其数学模型为N维概率空间: )()()()(2211mqqqqx xx xx xx xx xx xX XX Xmx为各种长为N的符号序列,x = x1 x2 xN ,xi a1 , a2 , , ak ,1 i N,序列集X = a1a1 a1 , a1a1 a2 , , akak ak ,共有kN种序列,x X。 序列的概率q (x) = q (x1x2 xN) = Niixq1)(现在学习的是第9页,共22页 中、英文句子中前后出现的汉字、字母往往是有依赖的。这种依赖性我们称作有记忆。用联合概率空间X , q (X )来描
6、述离散有记忆信源的输出。信源在i时刻发出什么符号与i时刻以前信源所发出的符号有关,即由条件概率p (xixi-1 xi-2 )确定。如果该条件概率分布与时间起点无关,只与关联长度有关,则该信源为平稳信源。对于离散平稳有记忆信源,有:p (x1 = a1) = p (x2 = a1) = p (x2 = a2x1 = a1) = p (x3 = a2x2 = a1) = p (x3x2 x1) = p (x4x3 x2) = p (xi+Lxi+L-1 xi+L-2 xi) = p (xj+Lxj+L-1 xj+L-2 xj) = 现在学习的是第10页,共22页【例1.4】 某离散平稳信源 ,设
7、信源发出的符号只与前一个符号有关,其关联程度用表1-1所示联合概率p (xi xj )表示(xi为前一个符号,xj为后一个符号):922931940)(XqX xj xi01201/31/9011/91/181/6201/61/18表1-1 p (xi xj ) 现在学习的是第11页,共22页满足 ,由 可计算出当已知前一个符号xi时,后一个符号xj为0、1、2时的概率各为多少:)()(ijjixqxxp)()()(ijiijxqxxpxxp xj xi01203/41/4011/31/61/2203/41/4表1-2 p (xjxi) 现在学习的是第12页,共22页马尔可夫信源输出的消息序列
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 基础 第一章 讲义

限制150内