信息论与编码-总复习.ppt
《信息论与编码-总复习.ppt》由会员分享,可在线阅读,更多相关《信息论与编码-总复习.ppt(48页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、总复习*1l信息l定义:信息是该事物运动的状态和状态改变的方式。l认识论层次的信息是同时考虑语法信息、语义信息和语用信息的全信息。l全信息全信息:同时考虑外在形式/语法信息、内在含义/语义信息、效用价值/语用信息。l语法信息:事物运动状态和状态改变的方式;l语义信息:事物运动状态和方式的具体含义;l语用信息:事物运动状态和方式及其含义对观察者的效用价值。l研究信息论的目的:研究信息论的目的:提高信息系统的可靠性、有效性和安全性以便达到系统最优化。第一章 概 论总复习*2单符号离散信源l自信息量自信息量l设离散信源 X,其概率空间为l如果知道事件 xi 已发生,则该事件所含有的自信息定义为l当事
2、件 xi 发生以前:表示事件 xi 发生的不确定性。l当事件 xi 发生以后:表示事件 xi 所含有(或所提供)的信息量第二章 信源熵总复习*3l联合自信息量联合自信息量l当 X 和 Y 相互独立时,p(xiyj)=p(xi)p(yj)第二章 信源熵总复习*4l条件自信息量:条件自信息量:已知 yj 的条件下 xi 仍然存在的不确定度。l自信息量、条件自信息量和联合自信息量之间的关系自信息量、条件自信息量和联合自信息量之间的关系第二章 信源熵总复习*5l互信息量:互信息量:yj 对 xi 的互信息量定义为的后验概率与先验概率比值的对数。第二章 信源熵总复习*6l观察者站在输出端观察者站在输出端
3、:两个不确定度之差是不确定度被消除的部分,即等于自信息量减去条件自信息量。l观察者站在输入端观察者站在输入端:观察者得知输入端发出 xi 前、后对输出端出现 yj 的不确定度的差。l观察者站在通信系统总体立场上观察者站在通信系统总体立场上:通信后的互信息量,等于前后不确定度的差。第二章 信源熵总复习*7l平均信息量平均信息量信源熵:信源熵:自信息的数学期望。也称为信源的信息熵/信源熵/香农熵/无条件熵/熵函数/熵。l信源熵的三种物理含义信源熵的三种物理含义l信源熵 H(X)是表示信源输出后每个消息/符号所提供的平均信息量;l信源熵 H(X)是表示信源输出前,信源的平均不确定性;l用信源熵 H(
4、X)来表征变量 X 的随机性。第二章 信源熵总复习*8l条件熵:条件熵:是在联合符号集合 XY 上的条件自信息的数学期望。第二章 信源熵总复习*9l信道疑义度信道疑义度H(X/Y):表示信宿在收到 Y 后,信源 X 仍然存在的不确定度。是通过有噪信道传输后引起的信息量的损失,故也可称为损失熵。l噪声熵噪声熵H(Y/X):表示在已知 X 的条件下,对于符号集 Y 尚存在的不确定性(疑义),这完全是由于信道中噪声引起的。第二章 信源熵总复习*10l联合熵联合熵 H(XY):表示输入随机变量 X,经信道传输到达信宿,输出随机变量 Y。即收、发双方通信后,整个系统仍然存在的不确定度。第二章 信源熵总复
5、习*11l最大离散熵定理最大离散熵定理(极值性极值性):离散无记忆信源输出 n 个不同的信息符号,当且仅当各个符号出现概率相等时(即p(xi)=1/n),熵最大。Hp(x1),p(x2),p(xn)H(1/n,1/n,1/n)=log2n 出现任何符号的可能性相等时,不确定性最大。第二章 信源熵总复习*12l二进制信源的熵函数 H(p)为第二章 信源熵总复习*13l平均互信息量定义:平均互信息量定义:互信息量 I(xi;yj)在联合概率 P(XY)中的统计平均值。1.站在输出端:站在输出端:I(X;Y)收到 Y 前、后关于 X 的不确定度减少的量。从 Y 获得的关于 X 的平均信息量。2.站在
6、输入端:站在输入端:I(Y;X)发出 X 前、后关于 Y 的先验不确定度减少的量。3.站在总体:站在总体:I(X;Y)通信前、后整个系统不确定度减少量。第二章 信源熵总复习*14lBSC信道的平均互信息量 设二进制对称信道的输入概率空间为 转移概率如图所示。第二章 信源熵总复习*15 平均互信息量l当 q 不变(固定信道特性固定信道特性)时,可得 I(X;Y)随输入概率分布 p 变化的曲线,如图所示;二进制对称信道特性固定后,输入呈等概率分布时,平均而言在接收端可获得最大信息量。第二章 信源熵总复习*16l当固定信源特性固定信源特性 p 时,I(X;Y)就是信道特性 q 的函数,如图所示;当二
7、进制对称信道特性 q=/q=1/2时,信道输出端获得信息量最小,即等于0。说明信源的全部信息信息都损失在信道中了。这是一种最差的信道。第二章 信源熵总复习*17l离散无记忆信源 X 的 N 次扩展信源的熵等于离散信源X 的熵的 N 倍,即H(X)=H(XN)=NH(X)l离散平稳信源:离散平稳信源:各维联合概率均与时间起点无关的完全平稳信源称为离散平稳信源。1.二维离散平稳信源的熵为 H(X)=H(X1X2)=H(X1)+H(X2/X1)2.N维离散平稳信源的熵为 H(X)=H(X1X2XN-1XN)=H(X1)+H(X2/X1)+H(X3/X1X2)+H(XN/X1X2XN-1)第二章 信源
8、熵总复习*18l平均符号熵:平均符号熵:信源平均每发一个符号提供的信息量为l离散平稳有记忆信源的极限熵:离散平稳有记忆信源的极限熵:当 N 时,平均符号熵取极限值称之为极限熵或极限信息量。用 H表示,即l极限熵的存在性:极限熵的存在性:当离散有记忆信源是平稳信源时,极限熵等于关联长度 N时,条件熵H(XN/X1X2XN-1)的极限值,即l极限熵的含义:极限熵的含义:代表了一般离散平稳有记忆信源平均每发一个符号提供的信息量。第二章 信源熵总复习*19l信源熵的相对率信源熵的相对率:=H/H0l信源冗余度信源冗余度:=1=(H0H)/H0l信源的冗余度表示信源可压缩的程度信源的冗余度表示信源可压缩
9、的程度。第二章 信源熵总复习*20l连续信源的熵连续信源的熵为l上式定义的熵在形式上和离散信源相似,也满足离散熵的主要特性,如可加性,但在概念上与离散熵有差异因为它失去了离散熵的部分含义和性质。第二章 信源熵总复习*21l设信源 通过一干扰信道,接收符号为 Y=y1,y2,信道传递矩阵为 (1)信源 X 中事件 x1 和 x2 分别含有的自信息量。(2)收到消息yj(j=1,2)后,获得的关于 xi(i=1,2)的信息量。(3)信源 X 和信宿 Y 的信息熵。(4)信道疑义度 H(X/Y)和噪声熵 H(X/Y)。(5)接收到 Y 后获得的平均互信息量。第二章 信源熵总复习*22(1)信源 X
10、中事件 x1 和 x2 分别含有的自信息量。解:I(x1)=log2 p(x1)=log2 0.6=0.74(bit)I(x2)=log2 p(x2)=log2 0.4=1.32(bit)(2)收到消息 yj(j=1,2)后,获得的关于 xi(i=1,2)的信息量。解:p(y1/x1)=5/6 p(y2/x1)=1/6 p(y1/x2)=1/4 p(y2/x2)=3/4 p(x1y1)=p(x1)p(y1/x1)=0.65/6=0.5 p(x1y2)=p(x1)p(y2/x1)=0.61/6=0.1 p(x2y1)=p(x2)p(y1/x2)=0.41/4=0.1 p(x2y2)=p(x2)p
11、(y2/x2)=0.43/4=0.3 p(y1)=p(x1y1)+p(x2y1)=0.5+0.1=0.6 p(y2)=p(x1y2)+p(x2y2)=0.1+0.3=0.4第二章 信源熵总复习*23第二章 信源熵总复习*24(3)信源 X 和信宿 Y 的信息熵。解:(4)信道疑义度 H(X/Y)和噪声熵 H(Y/X)。(5)接收到 Y 后获得的平均互信息量。第二章 信源熵总复习*25l信道容量信道容量 C:在信道中最大的信息传输速率,单位是比比特特/信道符号信道符号。l单位时间的信道容量单位时间的信道容量 Ct:若信道平均传输一个符号需要 t 秒钟,则单位时间的信道容量为 Ct 实际是信道的最
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 复习
限制150内