最新多媒体技术基础第3版第2部分数据无损压缩教学课件教学课件.ppt
《最新多媒体技术基础第3版第2部分数据无损压缩教学课件教学课件.ppt》由会员分享,可在线阅读,更多相关《最新多媒体技术基础第3版第2部分数据无损压缩教学课件教学课件.ppt(73页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、2022-7-10第2章 数据无损压缩2第第2章章 数据无损压缩目录数据无损压缩目录2.1 数据的冗余数据的冗余2.1.1 冗余概念2.1.2 决策量2.1.3 信息量2.1.4 熵2.1.5 数据冗余量2.2 统计编码统计编码2.2.1 香农-范诺编码2.2.2 霍夫曼编码2.2.3 算术编码2.3 RLE编码编码2.4 词典编码词典编码2.4.1 词典编码的思想2.4.2 LZ77算法2.4.3 LZSS算法2.4.4 LZ78算法2.4.5 LZW算法参考文献和站点参考文献和站点2022-7-10第2章 数据无损压缩92.1 数据的冗余数据的冗余(续续2)n信息量信息量(informat
2、ion content)具有确定概率事件的信息的定量度量在数学上定义为 其中, 是事件出现的概率 举例:假设X=a,b,c是由3个事件构成的集合,p(a)=0.5,p(b)=0.25,p(b)=0.25分别是事件a, b和c出现的概率,这些事件的信息量分别为, I(a)=log2(1/0.50)=1 sh I(b)=log2(1/0.25)=2 sh I(c)=log2(1/0.25)=2 sh一个等概率事件的集合,每个事件的信息量等于该集合的决策量22( )log 1/( )log( )I xp xp x ( )p x2022-7-10第2章 数据无损压缩102.1 数据的冗余数据的冗余(续
3、续3)n熵熵(entropy)按照香农(Shannon)的理论,在有限的互斥和联合穷举事件的集合中,熵为事件的信息量的平均值,也称事件的平均信息量(mean information content) 用数学表示为2022-7-10第2章 数据无损压缩112.1 数据的冗余数据的冗余(续续4)n数据的冗余量数据的冗余量2022-7-10第2章 数据无损压缩122.2 统计编码统计编码n统计编码统计编码给已知统计信息的符号分配代码的数据无损压缩方法n编码方法编码方法香农-范诺编码霍夫曼编码算术编码n编码特性编码特性香农-范诺编码和霍夫曼编码的原理相同,都是根据符号集中各个符号出现的频繁程度来编码,
4、出现次数越多的符号,给它分配的代码位数越少算术编码使用0和1之间的实数的间隔长度代表概率大小,概率越大间隔越长,编码效率可接近于熵2022-7-10第2章 数据无损压缩132.2.1 统计编码统计编码香农香农-范诺编码范诺编码n香农香农-范诺编码范诺编码(ShannonFano coding)在香农的源编码理论中,熵的大小表示非冗余的不可压缩的信息量在计算熵时,如果对数的底数用2,熵的单位就用“香农(Sh)”,也称“位(bit)” 。“位”是1948年Shannon首次使用的术语。例如最早阐述和实现“从上到下”的熵编码方法的人是Shannon(1948年)和Fano(1949年),因此称为香农
5、-范诺(Shannon- Fano)编码法2022-7-10第2章 数据无损压缩142.2.1 香农香农-范诺编码范诺编码n香农香农-范诺编码举例范诺编码举例 有一幅40个像素组成的灰度图像,灰度共有5级,分别用符号A,B,C,D和E表示。40个像素中出现灰度A的像素数有15个,出现灰度B的像素数有7个,出现灰度C的像素数有7个,其余情况见表2-1n(1) 计算该图像可能获得的压缩比的理论值n(2) 对5个符号进行编码n(3) 计算该图像可能获得的压缩比的实际值表表2-1 符号在图像中出现的数目符号在图像中出现的数目符号ABCDE出现的次数157765出现的概率15/407/407/406/4
6、05/402022-7-10第2章 数据无损压缩152.2.1 香农香农-范诺编码范诺编码(续续1)(1) 压缩比的理论值压缩比的理论值按照常规的编码方法,表示5个符号最少需要3位,如用000表示A,001表示B,100表示E,其余3个代码 (101,110,111)不用。这就意味每个像素用3位,编码这幅图像总共需要120位。按照香农理论,这幅图像的熵为21222222()( )log( ) ( )log ( ( )( )log ( ( )( )log ( ( ) = (15/40)log (40/15)+(7/40)log (40/7)+ +(5/40)log (40/5)2.196niii
7、H Xp xp xp Ap Ap Bp Bp Ep E 这个数值表明,每个符号不需要用3位构成的代码表示,而用2.196位就可以,因此40个像素只需用87.84位就可以,因此在理论上,这幅图像的的压缩比为120:87.841.37:1,实际上就是3:2.1961.37 2022-7-10第2章 数据无损压缩162.2.1 香农香农-范诺编码范诺编码(续续2)(2) 符号编码符号编码对每个符号进行编码时采用“从上到下”的方法。首先按照符号出现的频度或概率排序,如A,B,C,D和E,见表2-2。然后使用递归方法分成两个部分,每一部分具有近似相同的次数,如图2-1所示 2022-7-10第2章 数据
8、无损压缩172.2.1 香农香农-范诺编码范诺编码(续续3)(3)压缩比的实际值)压缩比的实际值按照这种方法进行编码需要的总位数为30+14+14+18+1591,实际的压缩比为120:911.32 : 1 图2-1 香农-范诺算法编码举例 2022-7-10第2章 数据无损压缩182.2.2 统计编码统计编码霍夫曼编码霍夫曼编码n霍夫曼编码霍夫曼编码(Huffman coding)霍夫曼(D.A. Huffman)在1952年提出和描述的“从下到上”的熵编码方法根据给定数据集中各元素所出现的频率来压缩数据的一种统计压缩编码方法。这些元素(如字母)出现的次数越多,其编码的位数就越少广泛用在JP
9、EG, MPEG, H.26X等各种信息编码标准中2022-7-10第2章 数据无损压缩192.2.2 霍夫曼编码 Case Study 1n霍夫曼编码举例霍夫曼编码举例1现有一个由5个不同符号组成的30个符号的字符串:BABACACADADABBCBABEBEDDABEEEBB计算(1) 该字符串的霍夫曼码(2) 该字符串的熵(3) 该字符串的平均码长(4) 编码前后的压缩比2022-7-10第2章 数据无损压缩202.2.2 霍夫曼编码 Case Study 1 (续续1)符号出现的次数log2(1/pi)分配的代码需要的位数B101.585?A81.907?C33.322?D42.907
10、?E52.585?合计30符号出现的概率符号出现的概率2022-7-10第2章 数据无损压缩212.2.2 霍夫曼编码霍夫曼编码 Case Study 1 (续续2)(1) 计算该字符串的霍夫曼码计算该字符串的霍夫曼码步骤:按照符号出现概率大小的顺序对符号进行排序步骤:把概率最小的两个符号组成一个节点P1步骤:重复步骤,得到节点P2,P3,P4, PN,形成一棵树,其中的PN称为根节点步骤:从根节点PN开始到每个符号的树叶,从上到下 标上0(上枝)和1(下枝),至于哪个为1哪个为0则 无关紧要,但通常把概率大的标成1,概率小的 标成0步骤:从根节点PN开始顺着树枝到每个叶子分别写出 每个符号的
11、代码2022-7-10第2章 数据无损压缩222.2.2 霍夫曼编码霍夫曼编码 Case Study 1 (续续3)符号符号B (10)A (8)E (5)D (4)C (3)P1 (7)P2 (12)P3 (18)P4 (30)01101010代码代码B(11)A(10)E(00)D(011)C(010)2022-7-10第2章 数据无损压缩232.2.2 霍夫曼编码霍夫曼编码 Case Study 1 (续续4)符号出现的次数log2(1/pi)分配的代码需要的位数B101.5851120A81.9071016C33.3220109D42.90701112E52.5850010合计301.
12、06730个字符组成的字符串需要个字符组成的字符串需要67位位5个符号的代码2022-7-10第2章 数据无损压缩242.2.2 霍夫曼编码霍夫曼编码 Case Study 1 (续续5) (2) 计算该字符串的熵计算该字符串的熵 其中, 是事件 的集合, 并满足H(S) =(8/30)log2(30/8) + (10/30)log2(30/10) + (3/30)log2(30/3) + (4/30)log2(30/4) + (5/30)log2(30/5) = 30lg30 (8lg8 10lg10 3lg3 4 lg4 5 lg5) / (30log22) = ( 44.313624.5
13、592)/ 9.0308 2.1874 (Sh)1 ,nXxx1( )1niip x(1,2, )ix in211()( ) ( )( )log( )nniiiiiiH Xp x I xp xp x 2022-7-10第2章 数据无损压缩252.2.2 霍夫曼编码霍夫曼编码 Case Study 1 (续续6)(3) 计算该字符串的平均码长计算该字符串的平均码长平均码长: (28210333425)/30 2.233 位/符号 压缩比压缩比: 90/67=1.34:11( )Niiill p l 平均码长:平均码长:67/30=2.233位位(4) 计算编码前后的压缩比计算编码前后的压缩比n编
14、码前:5个符号需3位,30个字符,需要90位n编码后:共67位2022-7-10第2章 数据无损压缩262.2.2 霍夫曼编码霍夫曼编码 Case Study 2n霍夫曼编码举例霍夫曼编码举例2编码前nN = 8 symbols: a,b,c,d,e,f,g,h, n3 bits per symbol (N =23=8)nP(a) = 0.01, P(b)=0.02, P(c)=0.05, P(d)=0.09, P(e)=0.18, P(f)=0.2, P(g)=0.2, P(h)=0.25计算(1) 该字符串的霍夫曼码(2) 该字符串的熵(3) 该字符串的平均码长(4) 编码效率2022-7
15、-10第2章 数据无损压缩272.2.2 霍夫曼编码霍夫曼编码 Case Study 2 (续续1)2022-7-10第2章 数据无损压缩282.2.2 霍夫曼编码霍夫曼编码 Case Study 2 (续续2)Average length per symbol (before coding):8133 bits/symbol( )iLP i82125821 bits/symbol( )log( ).iHP iP i2 63 bits/symbol .HufL98/%HufH L(2) Entropy:(3) Average length per symbol (with Huffman co
16、ding):(4) Efficiency of the code: 2022-7-10第2章 数据无损压缩292.2.3 统计编码统计编码算术编码算术编码n算术编码算术编码(arithmetic coding)给已知统计信息的符号分配代码的数据无损压缩技术基本思想是用0和1之间的一个数值范围表示输入流中的一个字符,而不是给输入流中的每个字符分别指定一个码字实质上是为整个输入字符流分配一个“码字”,因此它的编码效率可接近于熵 2022-7-10第2章 数据无损压缩302.2.3 算术编码举例算术编码举例n例例2.3(取自教材)(取自教材)假设信源符号为00, 01, 10, 11,它们的概率分别
17、为 0.1, 0.4, 0.2, 0.3 对二进制消息序列10 00 11 00 10 11 01 进行算术编码2022-7-10第2章 数据无损压缩312.2.3 算术编码举例算术编码举例(续续1)符号00011011概率0.10.40.20.3初始编码间隔0, 0.1)0.1, 0.5)0.5, 0.7)0.7, 1表表2-4 2-4 例例2.32.3的信源符号概率和初始编码间隔的信源符号概率和初始编码间隔 n初始化初始化根据信源符号的概率把间隔0, 1)分成如表2-4所示的4个子间隔:0, 0.1), 0.1, 0.5), 0.5, 0.7), 0.7, 1)。其中x, y)的表示半开放
18、间隔,即包含x不包含y,x称为低边界或左边界,y称为高边界或右边界2022-7-10第2章 数据无损压缩322.2.3 算术编码举例算术编码举例(续续2)n确定符号的编码范围确定符号的编码范围编码时输入第1个符号是10,找到它的编码范围是0.5, 0.7消息中第2个符号00的编码范围是0, 0.1),它的间隔就取0.5, 0.7)的第一个十分之一作为新间隔0.5, 0.52)编码第3个符号11时,取新间隔为0.514, 0.52)编码第4个符号00时,取新间隔为0.514, 0.5146)依此类推消息的编码输出可以是最后一个间隔中的任意数n整个编码过程如图整个编码过程如图2-3所示所示n编码和
19、译码的全过程分别见表编码和译码的全过程分别见表2-5和表和表2-6 2022-7-10第2章 数据无损压缩332.2.3 算术编码举例算术编码举例(续续3)图2-3 例2.3的算术编码过程2022-7-10第2章 数据无损压缩342.2.3 算术编码举例算术编码举例(续续4)2022-7-10第2章 数据无损压缩352.2.3 算术编码举例算术编码举例(续续5)2022-7-10第2章 数据无损压缩362.3 RLE编码编码n行程长度编码(Run-Length Coding)一种无损压缩数据编码技术,它利用重复的数据单元有相同的数值这一特点对数据进行压缩。对相同的数值只编码一次,同时计算出相同
20、值重复出现的次数。在JPEG,MPEG,H.261和H.263等压缩方法中,RLE用来对图像数据变换和量化后的系数进行编码例: 假设有一幅灰度图像第n行的像素值如图2-5所示。用RLE编码方法得到的代码为:8031508418000000000 111 888 888 1111 00000000 8个0 3个1 50个8 4个1 8个0图2-5 RLE编码概念2022-7-10第2章 数据无损压缩372.3 RLE编码编码(续续)nAssumption:Long sequences of identical symbols.Example,2022-7-10第2章 数据无损压缩382.4 词典
21、编码词典编码n词典编码词典编码(dictionary coding)文本中的词用它在词典中表示位置的号码代替的一种无损数据压缩方法。采用静态词典编码技术时,编码器需要事先构造词典,解码器要事先知道词典。采用动态辞典编码技术时, 编码器将从被压缩的文本中自动导出词典,解码器解码时边解码边构造解码词典两种类型的编码算法n具体算法具体算法LZ77算法LZSS算法LZ78算法LZW算法2022-7-10第2章 数据无损压缩392.4 词典编码词典编码(续续1)n第一类编码算法第一类编码算法用已经出现过的字符串替代重复的部分 编码器的输出仅仅是指向早期出现过的字符串的“指针” 图2-6 第一类词典编码概
22、念2022-7-10第2章 数据无损压缩402.4 词典编码词典编码(续续2)n第二类编码算法第二类编码算法从输入的数据中创建一个“短语词典(dictionary of the phrases)” 编码器输出词典中的短语“索引号”,而不是短语图2-7 第二类词典编码概念41LZ77算法算法n第一类词典编码里:所指的第一类词典编码里:所指的“词典词典”是指用以是指用以前处理过的数据来表示编码过程中遇到的重复前处理过的数据来表示编码过程中遇到的重复部分。部分。n这类编码中的所有算法都是以这类编码中的所有算法都是以Abraham Lempel和和Jakob Ziv在在1977年开发和发表的称年开发和
23、发表的称为为LZ77算法为基础的算法为基础的nJacob Ziv, Abraham Lempel, A Universal Algorithm for Sequential Data Compression, IEEE Transactions on Information Theory, 23(3):337-343, May 1977. 42LZ77算法算法nLZ77 算法在某种意义上又可以称为算法在某种意义上又可以称为“滑滑动窗口压缩动窗口压缩”,该算法将一个虚拟的,该算法将一个虚拟的,可以跟随压缩进程滑动的窗口作为词典可以跟随压缩进程滑动的窗口作为词典,要压缩的字符串如果在该窗口中出现,
24、要压缩的字符串如果在该窗口中出现,则输出其出现位置和长度。,则输出其出现位置和长度。43LZ77n首先介绍算法中用到的几个术语:首先介绍算法中用到的几个术语:n输入数据流输入数据流(input stream):要被压缩的字符序列。:要被压缩的字符序列。 n字符字符(character):输入数据流中的基本单元。:输入数据流中的基本单元。 n编码位置编码位置(coding position):输入数据流中当前要编码:输入数据流中当前要编码的字符位置,指前向缓冲存储器中的开始字符。的字符位置,指前向缓冲存储器中的开始字符。 n前向缓冲存储器前向缓冲存储器(Lookahead buffer):存放从
25、编码位置:存放从编码位置到输入数据流结束的字符序列的存储器。到输入数据流结束的字符序列的存储器。 n窗口窗口(window):指包含:指包含W个字符的窗口,字符从编码个字符的窗口,字符从编码位置开始向后数,也就是最后处理的字符数。位置开始向后数,也就是最后处理的字符数。 n指针指针(pointer):指向窗口中的匹配串,一般含有长度:指向窗口中的匹配串,一般含有长度。AABCBBABCAW=5已编码未编码B=444图例图例输入数据流45LZ77算法核心算法核心nLZ77编码算法的核心:查找从前向缓冲存储编码算法的核心:查找从前向缓冲存储器开始的最长的匹配串。编码算法的具体执器开始的最长的匹配串
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 最新 多媒体技术 基础 部分 数据 无损 压缩 教学 课件
限制150内