信息论与编码第2章信源与熵.ppt
《信息论与编码第2章信源与熵.ppt》由会员分享,可在线阅读,更多相关《信息论与编码第2章信源与熵.ppt(184页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第第2 2章章 信源熵信源熵n2.0 信源的数学模型及其分类信源的数学模型及其分类n2.1 单符号离散信源单符号离散信源n2.2 多符号离散平稳信源多符号离散平稳信源n2.3 连续信源连续信源n2.4 离散无失真信源编码定理离散无失真信源编码定理(*)1本节内容本节内容n通信的根本问题通信的根本问题是将信源的输出信息将信源的输出信息在接收端尽可能精确地复现出来。在接收端尽可能精确地复现出来。n需要讨论:如何描述信源的输出如何描述信源的输出,即如何计算信源输出的信息量如何计算信源输出的信息量。n信源的数学模型n信源的分类2什么是信源?什么是信源?n信源信源信息的发源地,如人、生物、机器等等。n由
2、于信息十分抽象,所以我们通过信息载荷者,即消息来研究信源,并将信源的具体输出称作消息消息。n消息的形式多样:离散消息(如汉字、符号、字母);连续消息(如模拟图像、语音)。n信源建模信源建模:信源消息中的信息是一个时变的不可预知的函数。n描述信源消息或对信源建模,随机过程是一个有效的工具,通过随机过程的特性来描述信源的特性。3信源输出的描述信源输出的描述 信源发出消息,消息载荷信息,而消息又具有不确定性,所以可用随机变量随机变量随机变量随机变量或随机序列(矢量)随机序列(矢量)随机序列(矢量)随机序列(矢量)来描述信源输出的消息,或者说用概率空间来描述信源。信源的输出被抽象为一个随机变量序列(随
3、机过程)。信源 X1,X2,X3,Xi为为 a1,a2,a3,am或或(a,b)4离散信源和连续信源离散信源和连续信源n用随机变量或随机矢量来描述信源的输出消息,用概率空间来描述信源时,则信源就是一个概率场:概率场:n离散信源:离散信源:信源输出的随机变量取值于某一离散符号集合,消息在时间和幅值上均是离散的,就叫做离散信源。n比如平面图像 X(x,y)和电报、书信、文稿等等n离散信源只涉及一个随机事件,称为单符号离散信源,可用离散随机变量来描述;n若离散信源涉及多个随机事件,称为多符号离散信源,可用离散随机矢量来描述。n连续信源:连续信源:信源输出的随机变量取值于某一连续区间,为连续信号,消息
4、的个数是无穷值,就叫做连续信源。n比如人发出的语音信号X(t)、模拟的电信号等等5离散和连续信源的数学模型离散和连续信源的数学模型6单单/多符号信源模型多符号信源模型n单符号信源:单符号信源:信源输出的是单个消息符号,用一维离散或连续随机变量X及其概率分布P来描述。n多符号信源:多符号信源:信源输出的是多个消息符号,用N维随机矢量,N重离散概率空间的数学模型来描述。n如自然语言信源就是把人类的语言作为信源,以汉字为例,就是随机地发出一串汉字序列。n我们可以把这样信源输出的消息视为时间上或空间上离散的随机变量序列,即随机矢量。n于是,信源的输出可用N维随机矢量(Xk,k=1,2,.,N)来描述,
5、N一般为有限正整数。7多符号信源的数学模型多符号信源的数学模型 N重离散概率空间重离散概率空间8信源的分类信源的分类 主要基于两方面:n1.信源消息取值的集合以及消息取值时刻的集合n离散信源、连续信源 或数字信源、模拟信源(波形信源)n2.信源消息的统计特性n由此可分为无记忆信源、有记忆信源、n平稳信源、非平稳信源、n高斯信源、马尔可夫信源等。n实际使用的是二者的组合n如离散无记忆信源等。9信源的分类信源的分类离散平稳信源n如果随机序列中各个变量具有相同的概率分布,则称为离散平稳信源离散平稳信源离散平稳信源离散平稳信源。n如果离散平稳信源的输出序列中各个变量是相互独立的,即前一个符号的出现不影
6、响以后任何一个符号出现的概率,则称为离散无记忆平离散无记忆平离散无记忆平离散无记忆平稳信源稳信源稳信源稳信源,否则称为离散有记忆平稳离散有记忆平稳离散有记忆平稳离散有记忆平稳信源信源信源信源10信源的分类信源的分类无记忆信源n如果信源发出的消息符号间彼此是统计独立的,并且它们具有相同的概率分布,且N维随机矢量的联合概率分布为:n我们称之为离散无记忆信源离散无记忆信源离散无记忆信源离散无记忆信源。n同样,若N维随机矢量中X每个变量Xk是连续随机变量,且相互独立,则X的联合概率密度函数n为 ,这种信源叫连续型无记忆信源连续型无记忆信源连续型无记忆信源连续型无记忆信源11信源的分类有记忆信源n一般情
7、况下,信源发出的符号间是彼此相互依存和关联的(如小说文字),是有记忆信源,通常用联合概率或条件概率来描述这种关联性。n按记忆长度划分有:n有限记忆信源(马尔可夫信源)n有限状态马尔可夫链n无限记忆信源 12混合信源混合信源n按信源输出时间和取值划分:n时间连续,取值连续或随机的,称之为随机波形信源,表示为X(t)。n输出既有连续分量又有离散分量,称之为混合信源。重点研究离散信源产生消息的不确定性,不研重点研究离散信源产生消息的不确定性,不研究信源的内部结构和消息的如何产生。究信源的内部结构和消息的如何产生。13信源的分类信源的分类随机过程随机过程x(t):随机波形信源随机波形信源信源输出的消息
8、是时间(或空间)上和取值上都是连续的函数离散无记忆信源的离散无记忆信源的N次扩展信源次扩展信源:输出的平稳随机序列X中各随机变量统计独立。每个随机变量xi取值于同一概率空间。每N个符号构成一组,等效为一个新的信源随机随机变量变量离散信源离散信源:可能输出的消息数有限连续信源连续信源:可能输出的消息数是无限的或不可数的非平稳非平稳信源信源平稳平稳信源信源连续连续连续连续平稳信源平稳信源离散离散离散离散平稳信源平稳信源:输出的随机序列X中每个随机变量取值是离散离散离散离散的,并且随机矢量X的各维概率分布不随时间平移而改变有限记忆信源有限记忆信源:输出的平稳随机序列X中各随机变量之间有依赖关系,但记
9、忆长度有限马尔可夫信源马尔可夫信源:输出的随机序列X中各随机变量之间有依赖关系,但记忆长度有限,并满足马尔可夫链的条件式随机随机序列序列14第第2 2章章 信源熵信源熵n2.0 信源的数学模型及其分类信源的数学模型及其分类n2.1 单符号离散信源单符号离散信源n2.2 多符号离散平稳信源多符号离散平稳信源n2.3 连续信源连续信源n2.4 离散无失真信源编码定理离散无失真信源编码定理15第第2章章 信源熵信源熵n2.1 单符号离散信源单符号离散信源n2.1.1 单符号离散信源的数学模型单符号离散信源的数学模型n2.1.2 自信息和信源熵自信息和信源熵n2.1.3 信源熵的基本性质和定理信源熵的
10、基本性质和定理n2.1.4 加权熵的概念及基本性质加权熵的概念及基本性质n2.1.5 各种熵之间的关系各种熵之间的关系162.1.1 单符号离散信源的单符号离散信源的数学模型数学模型n定义:单符号离散无记忆信源的数学模型17第第2章章 信源熵信源熵n2.1 单符号离散信源单符号离散信源n2.1.1 单符号离散信源的数学模型单符号离散信源的数学模型n2.1.2 自信息和信源熵自信息和信源熵n2.1.3 信源熵的基本性质和定理信源熵的基本性质和定理n2.1.4 加权熵的概念及基本性质加权熵的概念及基本性质n2.1.5 各种熵之间的关系各种熵之间的关系18随机事件与信息量n你的同学告诉你:“昨天中国
11、男子足球队以3:0战胜了巴西队”,你的感觉如何?n如果你的同学又告诉你:“昨天中国男子乒乓球队以3:0战胜了巴西队”,你的感觉又如何?n比较从这两件事情当中你获得信息量的大小?19自信息量定义n定义 2.1.1 任意随机事件的自信息量定义为该事件发生概率的对数的负值。n自信息量的单位取决于对数选取的底。n单位:比特bit、奈特nat、哈特Hart。n当对数的底取2时,单位为比特bitn当以自然数e为底时,单位为奈特natn当以10为底时,单位为哈特hart20自信息量的单位n在现代数字通信系统中,一般采用二进制的记数方式。在信息量的计算中也多采用以2为底的方式,一般默认以2为底n三个信息单位比
12、特bit、奈特nat、哈特Hart之间的转换关系如下:21对数及常用公式Examples:22信息量、不确定度和惊讶度n在事件发生前有不不确确定定度度:不确定度不确定度与事件发生与否无关,它表征的是事件的特性;n在事件发生时有惊讶惊讶度度;n在事件发生后带来信息信息量量:n因此,当一个概率很低的随机事件发生,我们就会感到因此,当一个概率很低的随机事件发生,我们就会感到非常惊讶,并得到很大的信息量。非常惊讶,并得到很大的信息量。n如:9.11事件,美国纽约世贸大厦被炸;n彗星撞地球23自信息量n从信息源获取信息的过程是信源不确定度信源不确定度缩减的过程。n随机事件包含的信息信息与其不确定度紧密相
13、关n在统计分析中,使用概率概率作为衡量不确定性的一种指标。n可以推论出:随机事件包含信息的度量应是其随机事件包含信息的度量应是其概率的函数。概率的函数。24自信息量与不确定度(例)n例:有一本n页书,每页200字,作者使用的词汇有1000个字。那么,1000个字每次取200个字构成一页,其总排列组合数也就是一页书总的状态数共有1000200=N1,对于n页书,则不同状态数将增加到N1n,即Nn=N1n=(1000)200 n=1000200n n假定每种状态是等概的,则n页书中对应每一种状态的概率为Pn=1/Nn=1/N1n=1/1000200n n n用概率倒数的对数来度量其不确定度用概率倒
14、数的对数来度量其不确定度用概率倒数的对数来度量其不确定度用概率倒数的对数来度量其不确定度,则为log(1/Pn)=log(Nn)=nlog(N1)n记1页(n页)书每种状态的不确定度为H1(Hn)n则Hn=log(1/Pn)=log(Nn)=nlog(N1)=nH1=Hnn也就是说n n页书包含的信息量是页书包含的信息量是页书包含的信息量是页书包含的信息量是1 1页书包含信息量的页书包含信息量的页书包含信息量的页书包含信息量的n n倍倍倍倍。25自信息量的性质n值得注意的是:26自信息量(例)n某地二月份天气的概率分布统计如下:n这四种气候的自信息量分别为:n可见不同天气情况具有不同的自信息量
15、,n自信息量具有随机变量的性质27联合自信息量n定义 2.1.2 二维联合集XY上的元素()的联合自信息量定义为n式中 为积事件;为元素 的二维联合概率。n当X和Y相互独立时,28条件自信息量n定义 2.1.3 联合集XY中,对事件 和 ,事件 在事件 给定的条件下的条件自信息量定义为n由于每个随机事件的条件概率都处于0 1范围内,所以条件自信息量均为非负值。29几种自信息量之间的关系n自信息量、联合自信息量、条件自信息量都满足非负性和单调递减性n三者都是随机变量,其值随着变量xi,yj的变化而变化。n三者之间有如下关系式:30例:联合自信息量n设在一正方形棋盘上共有64个方格,如果甲将一粒棋
16、子随意地放在棋盘中的某方格且让乙猜测棋子所在位置:n将方格按顺序编号,令乙猜测棋子所在方格的顺序号;n解:xy31例:条件自信息量n设在一正方形棋盘上共有64个方格,将方格按行和列编号,甲将棋子所在方格的行(或列)编号告诉乙之后,再令乙猜测棋子所在列(或行)的位置。n解:xy32自信息量不能作为信源的自信息量不能作为信源的整体信息测度整体信息测度n自信息量 是指某一信源X发出某一信息符号 所含有的信息量。发出的信息符号不同,它们所含有的信息量就不同。n信源发出的信息符号可用随机事件来描述。n自信息量是一个随机变量,它反映了信源发出某一信息符号的不确定性,不能反映整个信源的不确定性。它不能用来作
17、为整个信源的信息测度。33信源的概率空间描述信源的概率空间描述n用概率空间来描述信源。n用这个概率空间的可能状态数目及其概率来描述信源的不确定程度:n其中:nX是信源的状态空间,为一个离散集,表示了随机事件的状态数;nP(X)是随机事件各种可能状态的概率分布,且P(x)=1,n各状态是相互独立的。n通常记为X,P(x)34信源的不确定度举例信源的不确定度举例n分析整个信源的不确定性n有一个布袋,装有100个对手感觉一样的球,但颜色不同,每种颜色球的数量也不同。随意从中拿出一球,猜测球的颜色。n1、90个红球,10个白球-容易猜测n2、50个红球,50个白球-较难猜测n3、红、白、黑、黄球各25
18、个-更难猜测n容易看出:信源的不确定度与信源所包含的随机事件的可能状态数目和每种状态的概率有关。35信源不确定度的几个结论信源不确定度的几个结论n关于信源不确定度的几个结论:n信源的不确定程度与信源概率空间的状态数及其概率分布有关n如果信源概率空间的状态数确定,概率分布为等概时,不确定程度最大n等概时,不确定程度与信源概率空间的可能状态数(或相应的概率)有关,状态数越多(或相应的概率越小),不确定程度就越大。n信源的不确定程度可以用信源概率空间的概率分布来描述。通常记为H(X)=H(p1,p2,.pN)n对于上面的例子,有nH3(1/4,1/4,1/4,1/4)H2(1/2,1/2)H1(0.
19、90,0.10)36 平均自信息量平均自信息量信息熵信息熵n自信息量是随机变量,它反映了信源发出某一信息符号的不确定性,但不能用来作为整个信源的信息测度。因此,我们引入平均自信息量,即信息熵信息熵。n定义 2.3.1 集X上,随机变量I(xi)的数学期望定义为平均自信息量n集X的平均自信息量又称做是集X的信息熵,简称做熵。含义上信息熵与热熵有相似之处。37平均不确定性平均不确定性n集X的平均自信息量表示集X中事件出现的平均不确定性n在观测之前,确定确定集合X中出现一个事件平均所需的信息量;n观测之后,集合X中每出现一个事件平均给出的信息量。n例:38信息熵的单位信息熵的单位n n离散集合离散集
20、合离散集合离散集合X X信息熵的单位取决于对数选取的底信息熵的单位取决于对数选取的底信息熵的单位取决于对数选取的底信息熵的单位取决于对数选取的底。n如果一个离散集合X的概率分布为n个状态等概,选取对数底为n,由信息熵定义n可以说此集合X包含了1个n进制单位的信息量,用一个n进制的数就可以表示此集合的信息。n在现代数字通信系统中,一般采用二进制的记数方式。在信息熵的计算中也多采用以2为底的方式,且默认记为H(X)。由对数公式可以得到r进制与二进制之间的关系:39从布袋中摸球(例)从布袋中摸球(例)n如果每次摸出一个球后又放回袋中,再进行下一次摸取。那么如此摸取n次,红球出现的次数为np(x1)次
21、,白球出现的次数为np(x2)次。随机摸取n次后总共所获得的信息量为:np(x1)I(x1)+np(x2)I(x2)n平均随机摸取一次所获得的信息量则为:n从此例可以看出,平均自信息量,亦即信息熵H(X)是从平均意义上来表征信源的总体特征的一个量,它表征信源的平均不确定性40从布袋中摸球(例)从布袋中摸球(例)n继续从布袋中摸球n使用信息熵定义计算三种情况下信源的平均不确定性41信源熵与平均自信息量信源熵与平均自信息量n信源熵与平均自信息量数值相等,含义不同n信源熵表征信源的平均不确定度;n平均自信息量是消除信源不确定度所需要的信息的度量;n信源熵H(X)的三种物理含义:n表示信源输出后,每个
22、离散消息所提供的平均信息量;n表示信源输出前,信源的平均不确定度;n反映了变量X的随机性。42条件熵条件熵n定义 2.3.3 联合集XY上,条件自信息量I(x|y)的概率加权平均值定义为条件熵。其定义式为n上式称为联合集XY中,集Y相对于集X的条件熵。n条件熵又可写成n式中取和的范围包括XY二维空间中的所有点。这里要注意条件熵用联合概率p(xy),而不是用条件概率p(y|x)进行加权平均。43为什么条件熵为什么条件熵要用联合概率进行加权平均?要用联合概率进行加权平均?44联合熵联合熵n定义 2.3.4 联合集XY上,每对元素的自信息量的概率加权平均值定义为联合熵。n根据联合自信息量的定义,联合
23、熵又可定义为n联合熵又可称为共熵。45第第2章章 信源熵信源熵n2.1 单符号离散信源单符号离散信源n2.1.1 单符号离散信源的数学模型单符号离散信源的数学模型n2.1.2 自信息和信源熵自信息和信源熵n2.1.3 信源熵的基本性质和定理信源熵的基本性质和定理n2.1.4 加权熵的概念及基本性质加权熵的概念及基本性质n2.1.5 各种熵之间的关系各种熵之间的关系46熵函数的数学特征n随机变量集X的熵H(X)只是其概率分布 的函数,称为熵函数。所以H(X)又可以记为n根据此式,再由概率的完备性,可知H(P)H(P)实际上是实际上是(q-1)(q-1)元函数元函数。n如二元熵,有n为讨论熵函数的
24、性质,需借用凸函数的概念47熵熵函数函数的基本性质的基本性质n非负性n对称性n极值性n极值性特例最大离散熵定理n凸函数性n扩展性n确定性n可加性48熵函数的性质熵函数的性质 1.非负性非负性n非负性n其中,等号成立的充要条件是当且仅当对某n即,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号几乎都不可能出现,那么,这个信源是一个确知信源,其信源熵等于零。n这种非负性对于离散信源的熵是正确的,但是对于连续信源来说,该性质不存在。49熵函数的性质熵函数的性质 2.对称性对称性n当概率矢量 中的各分量的次序任意变更时,熵值不变。n该性质说明信源的熵仅与信源总体的统计特性有关。如果统
25、计特性相同,不管其内部结构如何,其信源熵值都相同。n例,A,B两地天气情况的平均不确定性为晴多云多云多云多云雨冰雹冰雹冰雹冰雹地域A 1/21/41/81/8地域B 1/21/81/81/450熵函数的性质熵函数的性质 3.极值性、极值性、最大熵定理最大熵定理n该性质表明,在离散情况下,集合X中的各事件依等概率发生时,熵达到极大值。这个重要结论称为最大熵定理最大熵定理。n集合中元素的数目n越多,其熵值就越大n对数函数的单调上升性。51熵函数的性质熵函数的性质 4.扩展性扩展性n证明:所以通过熵函数的定义可以证明上式成立。n含义:若集合X有q个事件,另一个集合X有q+1个事件,但X和X集的差别只
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 信源
限制150内