第三章连续信源的信息熵精选文档.ppt
《第三章连续信源的信息熵精选文档.ppt》由会员分享,可在线阅读,更多相关《第三章连续信源的信息熵精选文档.ppt(64页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第三章连续信源的信息熵本讲稿第一页,共六十四页第三章第三章.连续信源的信息熵连续信源的信息熵 3.1 连续信源的离散化连续信源的离散化 (Discretization of Continuous Source)我们前面所介绍的信源均指离散信源,即信源所发的消息都是由符号或符号序列所组成;而且每一个符号的取值都属于一个有限元素组成的集合之中。而连续信源是指信源所发出的消息都是由一个个随机过程(stochastic process)所形成。如:语音信号 它不仅幅度上,而且在时间上也都是 连续的,即分别属于一个无限的集合之中。本讲稿第二页,共六十四页3.1 连续信源的离散化连续信源的离散化 因此,我
2、们所研究的问题就复杂了,然而任何复杂的问题都可以分解成比较简单的问题分步解决。故通常我们有一些处理连续变量的方法。TimediscretizationStochastic processRandom vectorRandomvariableMemorylessMarkovianAmplitude discretizationAmplitudecontinuous正交变换正交变换Orthogonal Transformation 所谓正交变换是一种数学处理手段,将在T时间内的受限于最高频率为F的随机过程,无失真地变换成2FT个随机变量。最理想的正交变换是:KL expansion。本讲稿第三页,
3、共六十四页3.1 连续信源的离散化连续信源的离散化 因此任何复杂的统计对象,经多种处理后就可由浅入深地逐步解决问题。正如我们在离散信源中:任何处理过程总要丢失信息,最任何处理过程总要丢失信息,最多保持不变。所以简化处理就得付出多保持不变。所以简化处理就得付出代价即:容忍信息的丢失,除非正交代价即:容忍信息的丢失,除非正交变换和极限处理。变换和极限处理。消息消息事件事件随机随机变量变量随机随机序列序列随机随机过程过程自信息自信息信息熵信息熵序列熵的表达类型序列熵的表达类型随机过程的熵随机过程的熵本讲稿第四页,共六十四页第三章.连续信源的信息熵 3.2 连续变量的相对熵连续变量的相对熵(The d
4、ifferential entropy of Continuous random Variable)一个连续变量总可以采用数字量化的方式简化成一个离散变量来近似,而且量化单位越小则所得的离散变量就越接近那个连续变量。因此我们针对连续变量的概率统计规律概率分布密度函数概率分布密度函数(probability density function)也可采用上述近似方法。0ab本讲稿第五页,共六十四页3.2 连续变量的相对熵连续变量的相对熵 如果把xa,b 的定义域划分成n个小区间,且每个小区间宽度相等。那么处于第i个区间的概率就等于:0ab1本讲稿第六页,共六十四页3.2 连续变量的相对熵连续变量的相
5、对熵 以上我们将一个连续变量的概率空间量化成一个离散空间,从而得到连续信源的近似信息熵。如果将此近似手段在取极限的方式下就可逼近这个连续变量的熵。称为相对熵Differential entropy 称为绝对熵absolute entropy信息散度信息散度 D(p/q)(relative entropy)本讲稿第七页,共六十四页3.2 连续变量的相对熵连续变量的相对熵 在取极限的过程中由于n 相当于 0,此时这个离散变量越来越逼近一个连续变量;而离散集合中的信息熵Hn(X)就分解为两项,其中一项与划分精度 无关,趋于一个常量Hc(X)。而另一项,随着 0最终趋于一个无穷大的量。很显然这与取极限
6、之前的离散熵差别很大,那么这种极限形式能否表达出信源平均不定度的概念吗?由于表达形式的不同,则它的物理意义也应有所不同。所以我们不能以离散熵的概念来理解上述表达式,特别是当某些离散熵的数学性质不在继续保持的情况下,如:非负性、对称性、扩展性等。但值得庆幸,上式中将熵函数中最能反映信源的固有属性的数学性质如可加性、极值性和上凸性仍旧依然保持着。因此有可能上述表达式的某些部分仍能代表连续信源的某些物理属性。(但我们要深入讨论离散向连续逼近时,物理属性的变化。)本讲稿第八页,共六十四页3.2 连续变量的相对熵连续变量的相对熵 因为对于一个连续变量,它的取值有无穷多个,无论它取任何值,其随机事件所对应
7、的不定度一定是无穷大量。而对熵来说,应是这个随机事件集合的平均值,既然每一个事件的自信息都是无穷大,则它的集合平均值也应是无穷大才对。又因为从绝对的观点来看,每一个连续信源的平均不定度都是无穷大,那么这个熵的价值也就无意义了。但是再仔细分析一下,上式中只有H()项才与划分精度 有关,这说明只有此项能反映人为地利用离散模式向连续型逼近的近似程度。换句话说,这仅是强加上的人为因素,并不代表事物原有的客观属性。比如,对于同样概率分布的随机变量x,如果仅划分精度 不同时,可取 1,2代表两种划分精度,则我们所得到的熵的表达式:本讲稿第九页,共六十四页3.2 连续变量的相对熵连续变量的相对熵 为什么说相
8、对熵反映连续变量的客观存在的平均不定度?首先一个随机变量,当它的概率分布一旦确定,则它的不定性就该给定,而不能随划分精度的变化而变化。第二,由于信息量的概念是不定度的解除量,如果在相同划分精度下,再讨论两者之差时,H()将会消失。所以我们可看到仅从Hc(X)上就可真正反映出信息的全部属性(包括非负性)。因此,我们只要相对熵的定义就足够了。同时我们也能给出两个连续变量的互信息问题:可见只有H()不同,因此我们说:能真正反映连续信源的客观属性的应该是第一项,而不是第二项。对于后者我们称之为绝对熵绝对熵(absolute entropy);而对于前者我们称之为相对熵相对熵(differential
9、entropy)。本讲稿第十页,共六十四页3.2 连续变量的相对熵连续变量的相对熵本讲稿第十一页,共六十四页3.2 连续变量的相对熵连续变量的相对熵 可见当两个连续变量之间的互信息,实际上就是两熵之差,经绝对熵的相互抵消后,就剩下相对熵之差了。所以相对熵则完全反映出信息的基本属性。所谓“相对”一词也是由此而来。注:相对熵的定义与离散信源的信息熵有着明显的差别,即这种相对熵仅代表连续变量的相对平均不定度。同理,也有如下的相对熵的定义:本讲稿第十二页,共六十四页第三章第三章.连续信源的信息熵连续信源的信息熵 3.3 相对熵的性质相对熵的性质(The Properties of Differenti
10、al Entropy)1.可加性可加性 1本讲稿第十三页,共六十四页3.3 相对熵的性质相对熵的性质本讲稿第十四页,共六十四页3.3 相对熵的性质相对熵的性质2.3.4.有此上凸性,则导致相对熵有最大熵定理。5.6.本讲稿第十五页,共六十四页第三章第三章.连续信源的信息熵连续信源的信息熵 3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵(The Differential Entropy of some Random Variables)1.均匀分布下的相对熵:(The Differential Entropy of Random Variable and Vector with Uni
11、form Distribution)本讲稿第十六页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵本讲稿第十七页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵2.高斯分布下的相对熵:(The Differential Entropy of Random Variable and Vector with Normal Distribution)本讲稿第十八页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵 由此可见正态分布的相对熵仅与它的方差有关,而与它的均值m无关。这也是最简单的相对熵,是干扰最严重的随机变量高斯噪声源的数学特性。高
12、斯信源不仅因为其数学描述简单,而且由于它的干扰最强,所以经常用它来作我们通信系统中干扰源的数学模型。本讲稿第十九页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵 如果L维的正态随机变量组成一个随机矢量 ,设每一个变量的均值为mi,则如果能知道任何变量间的协方差;(covariance)我们就能唯一地确定这个随机矢量。本讲稿第二十页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵按相对熵的定义就可推出L维正态矢量的相对熵:如果各个分量之间相互独立,则R形成一对角线矩阵:本讲稿第二十一页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵例
13、31.求二维正态矢量的相对熵和两变量间的互信息。本讲稿第二十二页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵根据根据本讲稿第二十三页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵 可见二维正态矢量的相对熵,等于两个分量的相对熵之和与它们之间相关程度对熵的损失量之差。现在进一步分析I(X1;X2)的物理意义:本讲稿第二十四页,共六十四页3.4 几种常见随机变量的相对熵几种常见随机变量的相对熵 如果两个分量一一对应,则实际上是两个变量变成一个变量了。此刻硬要将一个连续量看成两个连续量,必然要引入一个无穷大量才对。所以此时的互信息就是无穷大量。还因为互信
14、息的定义式为:可见互信息不仅是相对熵之差,而且也是连续熵之差。本讲稿第二十五页,共六十四页第三章第三章.连续信源的信息熵连续信源的信息熵 3.5 连续信源的最大熵定理连续信源的最大熵定理(Maximum Entropy Theorem of Continuous Source)在离散信源中也有最大熵问题,目的就是希望设计信在离散信源中也有最大熵问题,目的就是希望设计信源时使它具备最大发送信息的能力。从熵函数的上凸性质源时使它具备最大发送信息的能力。从熵函数的上凸性质看,它已具备最大值的充要条件,我们所面临的问题就是看,它已具备最大值的充要条件,我们所面临的问题就是如何把握最理想的概率分布。如何
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第三 连续 信源 信息 精选 文档
限制150内