(精品)《数字通信原理》第4章信息论基础.ppt
《(精品)《数字通信原理》第4章信息论基础.ppt》由会员分享,可在线阅读,更多相关《(精品)《数字通信原理》第4章信息论基础.ppt(136页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、数字通信原理数字通信原理(4)(4)冯穗力等编著冯穗力等编著电子工业出版社电子工业出版社20122012年年8 8月月2010 Copyright 2010 Copyright 1 1SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs第第 4 章章 信息论基础信息论基础本章的基本内容本章的基本内容:n信息的度量方法;n离散信道及容量;n连续信源、信道及容量;n信源编码的基本方法;n率失真理论。2010 Copyright 2010 Copyright 2 2SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P
2、LabsSCUT DT&P Labs4.1 4.1 引言引言2010 Copyright 2010 Copyright 3 3SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 消息与信息消息与信息 1948年,美国科学家香农的论文通信的数学理论通信的数学理论,奠定了信息论的理论基础。消息与信息消息与信息 (1)消息是由符号、文字、数字、语音或图像组成的序列;(2)消息是信息的载体载体,信息是消息的内涵内涵;消息中可能包 含信息,也可能不包含信息;(3)收到一则消息后,所得的信息量,在数量上等于获得 消息前后“不确定性”的消除量;
3、(4)通信的目的在与传送信息。第4章 信息论基础2010 Copyright 2010 Copyright 4 4SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 消息与信息(续)通信系统传递信息的机制和本质通信系统传递信息的机制和本质 形式化形式化:通信的基本任务是在接收端把发送端发出的消息从形式上恢复出来,而对消息内容的理解和判断,不是通信的任务。非决定论非决定论:通信过程传递的消息中所包含的内容,对接收者来说事先是无法预料的。不确定性不确定性:是指收到该消息之前,对其中的内容出现与否,具有不确定的因素;不确定的因素可以通过
4、通信来加以消除或部分消除。第4章 信息论基础2010 Copyright 2010 Copyright 5 5SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs4.2 4.2 信息的度量信息的度量2010 Copyright 2010 Copyright 6 6SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 信息度量的概念信息度量的概念 (1)某消息的信息量获得该消息后不确定性的消除量不确定性的消除量;不确定性可能性概率问题概率问题:信息量可用概率的某种函数来度量
5、(2)不同的消息有信息量的多少的区别,因此 信息的度量方式应满足信息量的可加性信息的度量方式应满足信息量的可加性 信息量应该是满足可加性的概率的函数信息量应该是满足可加性的概率的函数。第4章 信息论基础2010 Copyright 2010 Copyright 7 7SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源信息的度量离散信源信息的度量 离散信源的信息量离散信源的信息量 离散信源统计特性的描述方法概率场概率场 设离散信源包含N种可能的不同符号,相应的概率场可表述为 概率场应满足条件:第4章 信息论基础2010 C
6、opyright 2010 Copyright 8 8SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 离散信源的信息量(续)信息量作为概率的函数,具有形式 若 与 统计独立,满足可加性要求 如定义 显然有 可同时满足是概率的函数是概率的函数和可加性可加性两个要求。第4章 信息论基础2010 Copyright 2010 Copyright 9 9SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源信的息量(续)定义定义 离散消息离散消息x xi i的信息量的
7、信息量:信息量的单位与对数的底有关信息量的单位与对数的底有关:log以2为底时,单位为比特比特:bit log以e为底时,单位为奈特奈特:nit log以10为底时,单位为哈特哈特,hart 一般在没有特别声明时均信息的单位为比特一般在没有特别声明时均信息的单位为比特。第4章 信息论基础2010 Copyright 2010 Copyright 1010SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源信的息量(续)示例示例:已知某信源的概率场为 输出的各符号统计独立,计算序列S“113200”的信息量 第4章 信息论基
8、础2010 Copyright 2010 Copyright 11 11SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的平均信息量:信源的熵离散信源的平均信息量:信源的熵 离散信源的熵离散信源的熵 定义定义4.2.2 4.2.2 离散信源离散信源 的熵的熵 熵是信源在统计意义上每个符号的平均信息量每个符号的平均信息量。第4章 信息论基础2010 Copyright 2010 Copyright 1212SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn
9、离散信源的熵(续)示例示例:求离散信源 的熵。按照定义:熵的单位:比特比特/符号符号 第4章 信息论基础2010 Copyright 2010 Copyright 1313SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的熵(续)示例示例(续):若上述离散信源发送独立的符号序列:201 020 130 213 001 203 210 100 321 010 023 102 002 10 312 032 100 120 210 (1)求总的信息量;(2)利用熵估计总的信息量。解:(1)(2)第4章 信息论基础2010 C
10、opyright 2010 Copyright 1414SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的最大熵定理离散信源的最大熵定理 定义定义4.2.3 4.2.3 凸集凸集 对任意对任意 ,有,有 定义定义4.2.4 4.2.4 若若 型凸函数型凸函数(下凸函数下凸函数)型凸函数型凸函数(上凸函数上凸函数)第4章 信息论基础2010 Copyright 2010 Copyright 1515SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源
11、的最大熵定理(续)若函数为若函数为 型凸函数型凸函数(下凸函数下凸函数),则一定存在最小值,则一定存在最小值 若函数为若函数为 型凸函数型凸函数(上凸函数上凸函数),则一定存在最大值,则一定存在最大值 型凸函数示例 第4章 信息论基础2010 Copyright 2010 Copyright 1616SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的最大熵定理(续)若 是一组概率概率;是一个 型凸函数型凸函数,则一般地有如下的关系式 利用上面的关系式,可以证明如下的定理 定理定理4.2.5 4.2.5 熵函数熵函数 是
12、概率是概率 的的 型凸函数型凸函数。第4章 信息论基础2010 Copyright 2010 Copyright 1717SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的最大熵定理(续)定理定理4.2.6 4.2.6 当离散信源当离散信源X X取等概分布时,其熵取等概分布时,其熵 取最大值。取最大值。即:当信源取等概分布时,具有最大的不确定性当信源取等概分布时,具有最大的不确定性。示例示例:两个信源符号的情形。P(x1)=p,P(x2)=1-p 当p=1/2时,H(X)=Hmax第4章 信息论基础2010 Copyr
13、ight 2010 Copyright 1818SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的联合熵与条件熵离散信源的联合熵与条件熵 两随机变量两随机变量 的概率场概率场 满足条件:第4章 信息论基础2010 Copyright 2010 Copyright 1919SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的联合熵与条件熵(续)两随机变量的联合熵联合熵 定义定义4.2.3 4.2.3 两随机变量两随机变量 的联合熵的联合熵 如两随机
14、变量统计独立,有第4章 信息论基础2010 Copyright 2010 Copyright 2020SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 两随机变量的联合熵(续)对于统计独立的两随机变量,不能从其中一个获得有关另外对于统计独立的两随机变量,不能从其中一个获得有关另外一个的任何信息一个的任何信息。第4章 信息论基础2010 Copyright 2010 Copyright 2121SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源的联合熵与条件
15、熵(续)两随机变量的条件熵条件熵 定义定义4.2.4 4.2.4 两随机变量两随机变量 的条件熵的条件熵 一般地有(利用稍后的平均互信息量的非负性)具有某种相关性的两随机变量具有某种相关性的两随机变量,一个随机变量的出现总是一个随机变量的出现总是 有助于降低另一随机变量的不确定性有助于降低另一随机变量的不确定性。第4章 信息论基础2010 Copyright 2010 Copyright 2222SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs4.3 4.3 离散信道及容量离散信道及容量2010 Copyright 2010 Co
16、pyright 2323SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源及容量离散信源及容量 信道模型信道模型 信道的输入输入:信道的输出输出:信道模型(特性)可用其转移概率转移概率来描述第4章 信息论基础2010 Copyright 2010 Copyright 2424SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源及容量(续)信道模型 信道模型(特性)可用其转移概率来描述,一般地有 输出不仅与当前的输入有关,而且与之前的若干个输入值 有关
17、,呈现某种“记忆记忆”效应。第4章 信息论基础2010 Copyright 2010 Copyright 2525SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源及容量(续)离散无记忆信道离散无记忆信道的转移矩阵 输出仅与当前的输入输出仅与当前的输入有关 离散无记忆信道的后验概率矩阵后验概率矩阵 第4章 信息论基础2010 Copyright 2010 Copyright 2626SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 离散无记忆信道的转移矩阵(
18、续)示例示例:二元的离散无记忆信道 发“0”和发“1”时 能正确接收的概率为0.99,错误的概率为0.01。即有 转移矩阵 第4章 信息论基础2010 Copyright 2010 Copyright 2727SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源及容量离散信源及容量 互信息量互信息量 转移概率 是一种条件概率,在通信系统中可表示 收到 后,发送端发送的是符号 的概率。接收端收到 后,关于 的不确定性可表示为 定义定义4.3.1 4.3.1 互信息量为:互信息量为:互信息量互信息量为收到 后,关于 的不确定性
19、的消除量不确定性的消除量。第4章 信息论基础2010 Copyright 2010 Copyright 2828SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 互信息量互信息量互信息量互信息量(续续续续)互信息量具有互信息量具有对称性对称性对称性对称性 互信息量的互信息量的性质性质性质性质 (1)若 (2)若 (3)若 (4)若 第4章 信息论基础2010 Copyright 2010 Copyright 2929SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn
20、n 离散信源及容量离散信源及容量(续续)平均互信息量平均互信息量平均互信息量平均互信息量 定义定义定义定义4.3.24.3.24.3.24.3.2 平均互信息量为:平均互信息量为:平均互信息量具有非负性平均互信息量具有非负性平均互信息量具有非负性平均互信息量具有非负性 表明从统计上来说,两相关联的随机变量集,其中一个的出 现总是有利于提供有关另外一个的信息。第4章 信息论基础2010 Copyright 2010 Copyright 3030SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信源及容量(续)熵函数熵函数与平均
21、互信息量平均互信息量间的关系 第4章 信息论基础2010 Copyright 2010 Copyright 3131SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 熵函数与平均互信息量间的关系(续)当信源当信源X X与与Y Y统计独立时统计独立时 (1)两个符号同时出现时提供的平均信息量等于每个符号的平均信息量之和;(2)一个符号不能提供有关另一符号的任何信息。第4章 信息论基础2010 Copyright 2010 Copyright 3232SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs
22、SCUT DT&P Labsn 熵函数与平均互信息量间的关系(续)当两个信源相关时当两个信源相关时 (1)联合熵小于两个信源的熵的和:(2)平均互信息量等于两信源熵重合的部分;(3)信源的条件熵等于其熵减去平均互信息量:第4章 信息论基础2010 Copyright 2010 Copyright 3333SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labsn 离散信道的容量离散信道的容量 已知信道的转移矩阵转移矩阵 信源符号集信源符号集:;符号传输速率符号传输速率:系统的平均信息速率平均信息速率为:第4章 信息论基础2010 Copy
23、right 2010 Copyright 3434SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 离散信道的容量(续)定义定义4.3.3 4.3.3 离散信道的最大传输速率为其信道容量离散信道的最大传输速率为其信道容量 匹配信源的概念匹配信源的概念 信道容量由信道特性和信源的统计特性决定。信道特性确定之后,其容量由信源的统计特性决定。匹配信源匹配信源:能使单位时间内信道可传输的平均信息量达到信 道容量的信源称之。记匹配信源的分布特性:信道容量:第4章 信息论基础2010 Copyright 2010 Copyright 3535
24、SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 离散信道的容量(续)匹配信源匹配信源(续续)已知信道转移概率,匹配信源统计特性的求解 约束条件 求 使得 达到最大。由拉格朗日求极值的原理:定义辅助方程 令 可得信源分布特性应满足的条件第4章 信息论基础2010 Copyright 2010 Copyright 3636SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 离散信道的容量(续)由此可导出匹配信源匹配信源统计特性的求解步骤求解步骤:(1)解方程组 求解得 (
25、2)求最大平均互信息量:(3)求相应后验概率:(4)解方程组,确定匹配信源的分布特性 第4章 信息论基础2010 Copyright 2010 Copyright 3737SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSCUT DT&P Labs 离散信道的容量(续)示例示例:求匹配信源的统计特性。已知信道转移概率 (1)解方程组的参数:(2)求最大平均互信息量:(3)求相应后验概率:第4章 信息论基础2010 Copyright 2010 Copyright 3838SCUT DT&P LabsSCUT DT&P LabsSCUT DT&P LabsSC
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数字通信原理 精品 数字通信 原理 信息论 基础
限制150内