图像编码与压缩技术.ppt
《图像编码与压缩技术.ppt》由会员分享,可在线阅读,更多相关《图像编码与压缩技术.ppt(164页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第6章图像编码与压缩技术,教学目的,了解图象编码的目的和常用方法;理解图象编码的基本概念和理论;掌握熵编码方法、预测编码、变换编码的基本方法;理解图象编码的国际标准。,6.1概述,一.数据压缩的目的数据压缩就是要减少描述图像的数据量,从而达到这样几个目的:节省图像存储器的容量减少传输时占用的通信话路缩短图像处理时间,提高实时处理的速度。,典型图像的数据量,二.数据压缩的可能性,1.图像作为信源有很大的冗余度,通过编码的方法减少或去掉这些冗余信息后可以有效压缩图像,同时又不会损害图像的有效信息。数字图像的冗余主要表现为以下几种形式:空间冗余:规则物体或规则背景的物体表面特性具有的相关性,这种相关
2、性使图像结构趋于有序和平滑。内部相邻像素之间存在较强的相关性。频间相关性:多频段图像中各频段图像对应像素之间灰度相关性很强。时间冗余:视频图像序列中的不同帧之间的相关性很强,很多局部甚至完全相同,或变化极其微妙。由此造成的冗余。信息熵冗余:也称编码冗余,如果图像中平均每个像素使用的比特数大于该图像的信息熵,则图像中存在冗余,这种冗余称为信息熵冗余结构冗余:是指图像中存在很强的纹理结构或自相似性。知识冗余:是指在有些图像中还包含与某些先验知识有关的信息。视觉冗余:是指人眼不能感知或不敏感的那部分图像信息。其他冗余。,数据压缩主要是通过编码来实现的。,三.图像编码的方法,1.根据编码过程中是否存在
3、信息损耗可将图像编码分为有损压缩和无损压缩。无损压缩无信息损失,解压缩时能够从压缩数据精确地恢复原始图像;有损压缩不能精确重建原始图像,存在一定程度的失真。,2.根据编码原理可以将图像编码分为熵编码、预测编码、变换编码和混合编码等。(1)熵编码。熵编码是纯粹基于信号统计特性的编码技术,是一种无损编码。熵编码的基本原理是给出现概率较大的符号赋予一个短码字,而给出现概率较小的符号赋予一个长码字,从而使得最终的平均码长很小。常见的熵编码方法有行程编码、哈夫曼编码和算术编码。(2)预测编码。预测编码是基于图像数据的空间或时间冗余特性,用相邻的已知像素(或像素块)来预测当前像素(或像素块)的取值,然后再
4、对预测误差进行量化和编码。预测编码可分为帧内预测和帧间预测,常用的预测编码有差分脉码调制(DPCM)和运动补偿法。,(3)变换编码。变换编码通常是将空间域上的图像经过正交变换映射到另一变换域上,使变换后的系数之间的相关性降低。图像变换本身并不能压缩数据,但变换后图像的大部分能量只集中到少数几个变换系数上,采用适当的量化和熵编码就可以有效地压缩图像。(4)混合编码。混合编码是指综合了熵编码、变换编码或预测编码的编码方法,如JPEG标准和MPEG标准,JBIG,H261。,3.根据对压缩编码后的图像进行重建的准确程度,可将常用的图像编码方法分为三类:(1)信息保持编码:也称无失真编码,它要求在编解
5、码过程中保证图像信息不丢失,从而可以完整地重建图像。信息保持编码的压缩比较低,一般不超过3:1,主要应用在图像的数字存储方面,常用于医学图像编码中。常见的有:哈夫曼编码,算术编码,行程编码,FANO编码等。,(2)保真度编码:主要利用人眼的视觉特性,在允许的失真(Lossy)条件下或一定的保真度准则下,最大限度地压缩图像。保真度编码可以实现较大的压缩比,主要用于数字电视技术、静止图像通信、娱乐等方面。对于这些图像,过高的空间分辨率和过多的灰度层次,不仅增加了数据量,而且人眼也接收不到。因此在编码过程中,可以丢掉一些人眼不敏感的信息,在保证一定的视觉效果条件下提高压缩比。常见的有:预测编码:DP
6、CM,运动补偿频率域方法:正交变换编码(如DCT),子带编码模型方法:分形编码,模型基编码基于重要性:滤波,子采样,比特分配,向量量化,(3)特征提取:在图像识别、分析和分类等技术中,往往并不需要全部图像信息,而只要对感兴趣的部分特征信息进行编码即可压缩数据。例如,对遥感图像进行农作物分类时,就只需对用于区别农作物与非农作物,以及农作物类别之间的特征进行编码,而可以忽略道路、河流、建筑物等其他背景信息。,四.图像编码新技术,图像编码已经发展了几十年,人们不断提出新的压缩方法。如,利用人工神经网络(ArtificialNeuralNetwork,ANN)的压缩编码、分形编码(FractalCod
7、ing)、小波编码(WaveletCoding)、基于对象的压缩编码(ObjectBasedCoding)和基于模型的压缩编码(ModelBasedCoding)等等。,1)分形编码分形编码是在分形几何理论的基础上发展起来的一种编码方法。分形编码最大限度地利用了图像在空间域上的自相似性(即局部与整体之间存在某种相似性),通过消除图像的几何冗余来压缩数据。M.Barnsley将迭代函数系统用于描述图像的自相似性,并将其用于图像编码,对某些特定图像获得了10000:1的压缩比。分形编码过程十分复杂,而解码过程却很简单,故通常用于对图像编码一次,而需译码多次的信息传播应用中。,图分形图像,给出一个稍
8、微复杂的树模型:,设图形为一条单位长直线段,在第一个三等分点上各向两边角的方向延伸出两条长的线段,在中点处向左以延伸出长的线段,再在第二个三等分点处向右方以延伸出的线段。得到图形。将的每5个分支做同样的变换,得到。,Koch曲线,设为单位直线段,将其三等分后,中间一段用与其组成等边三角形的另两边代替,得到。对的每条线段重复以上做法得到。当n趋向于无穷时,所得的曲线就是Koch曲线。,用计算机生成的分形图象,最典型的例子是一片蕨子所对应的迭代函数系统:,从上例可以看出,要产生一个复杂的图形需要的数据并不多。蕨子叶对应的迭代函数系统只有24个系数。如果以8比特代表一个系数,那么192比特就可以代表
9、一片蕨子叶了,可见其压缩比是很大的。曾有人扬言,它实现过10000:1的压缩,分形图像压缩的潜力是无疑的。,因此从分形的角度,许多视觉上感觉非常复杂的图像其信息量并不大,可以用算法和程序集来表示,再借助计算机可以显示其结合状态,这就是可以用分形的方法进行图像压缩的原因。分形最显著的特点是自相似性,即无论几何尺度怎样变化,景物的任何一小部分的形状都与较大部分的形状极其相似。这种尺度不变性在自然界中广泛存在。例如,晶状的雪花、厥类植物的叶子等,这些图形都是自相似的。可以说分形图之美就在于它的自相似性,而从图像压缩的角度,正是要恰当、最大限度地利用这种自相似性。,2)小波编码1989年,S.G.Ma
10、llat首次将小波变换用于图像编码。经过小波变换后的图像,具有良好的空间方向选择性,而且是多分辨率的,能够保持原图像在各种分辨率下的精细结构,与人的视觉特性十分吻合。,图子图排序示意图,(,c,),Woman二级小波分解图,3)模型编码模型编码是近几年发展起来的一种很有前途的低比特率编码方法,其基本出发点是在编、解码两端分别建立起相同的模型,编码时利用先验模型抽取图像中的主要信息并用模型参数的形式表示,解码时则利用所接收的模型参数重建图像.,五.数据压缩系统组成框图,图像压缩编码系统的组成框图:,三个环节:变换器:将原始图像表示在另一个量化和编码数据较少的域中,变换器应高度去相关,重建均方差最
11、小,可逆的和方法简便的。有线性预测,正交变换,游程变换等;量化器:按一定规则使量化器输出幅值的大小为有限个数。编码器:为量化器输出端的每个符号分配一个码字或二进制比特流。,一般说来,评价图像压缩算法的优劣主要有以下4个方面。1)算法的编码效率算法的编码效率通常有几种表现形式:图像熵(H),平均码字长度(R),图像的压缩比(rate,r),编码效率(),这些表现形式很容易相互转换。,6.2图像压缩编码评价,设一幅灰度级为N的图像,图像中第k级灰度出现的概率为,每个像素用d比特表示,定义数字图像的熵H由下式定义:,(图像熵H表示各灰度级比特数的统计平均值。),对于一种图像编码方法,设第k级灰度的码
12、字长度为,则该图像的平均码字长度R为:,定义编码效率为:,压缩比r为:,,(d表示压缩前图像每象素的平均比特数),由于同一压缩算法对不同图像的编码效率会有所不同,因此常需定义一些“标准图像”,如国际上流行的三幅图像Lena、Barbara和Mandrill。一般通过测量不同压缩算法对同一组“标准图像”的编码性能来评价各图像压缩算法的编码效率.,2)编码图像的质量压缩前后图像质量评价可分为客观质量评价和主观质量评价。最常用的客观质量评价指标是均方误差(MSE)和峰值信噪比(PSNR),其定义如下:,主观质量评价是指由一批观察者对编码图像进行观察并打分,然后综合所有人的评判结果,给出图像的质量评价
13、。客观质量评价能够快速有效地评价编码图像的质量,但符合客观质量评价指标的图像不一定具有较好的主观质量。主观质量评价能够与人的视觉效果相匹配,但其评判过程缓慢费时。,3)算法的适用范围特定的图像编码算法具有其相应的适用范围,并不对所有图像都有效。一般说来,大多数基于图像信息统计特性的压缩算法具有较广的适用范围,而一些特定的编码算法的适用范围较窄,如分形编码主要用于自相似性高的图像.,4)算法的复杂度算法的复杂度即指完成图像压缩和解压缩所需的运算量和硬件实现该算法的难易程度。优秀的压缩算法要求有较高的压缩比,压缩和解压缩快,算法简单,易于硬件实现,还要求解压缩后的图像质量较好。选用编码方法时一定要
14、考虑图像信源本身的统计特性、多媒体系统(硬件和软件产品)的适应能力、应用环境以及技术标准。,图像编码主、客观评价的内在关系,6.3统计编码,统计编码根据信源的概率分布特性,分配具有惟一可译性的可变长码字,降低平均码字长度,以提高信息的传输速度,节省存储空间。基本原理在信号概率分布情况已知的基础上,概率大的信号对应的码字短,概率小的信号对应的码字长,这样就降低了平均码字长度。,变长最佳编码定理:如果码字长度严格按照对应符号出现的概率大小逆序排列,则其平均码字长度为最小。变长最佳编码定理是哈夫曼编码的理论基础。,根据信源编码理论,当平均码长R大于或等于图像熵H时,总可以设计一种无失真的编码方法。当
15、平均码长R远远大于图像熵H时,表明该编码方法效率低。当平均码长R等于或按照大于方向很接近图像熵H时,则为最佳编码方法,并不会引起图像失真。,熵是无失真图像编码的下界。,结论:信源符号的码字长度是由信源符号自身出现的概率决定的。,等长编码与可变长编码,例:假设一文件中出现了8种符号S0,S1,S2,S3,S4,S5,S6,S7,若采用等长编码,则每种符号编码至少需要3bit,则编码成S0=000,s1=001,s2=010,s3=011,s4=100,s5=101,s6=110,s7=1则符号序列s0s1s7s0s1s6s2s2s3s4s5s0s0s1编码为0000011110000011100
16、10010011100101000000001(共42bit)若采用编码方案为S0=01,s1=11,s2=101,s3=0000,s4=0010,s5=0001,s6=0011,s7=100则上述序列编码为011110001110011101101000000100001010111(共39bit),哈夫曼编码是一种利用信息符号概率分布特性的变字长的编码方法。对于出现概率大的信息符号编以短字长的码,对于出现概率小的信息符号编以长字长的码。霍夫曼编码是一种变长编码,也是一种无失真编码。,6.3.1Huffman编码,1.步骤:(1).先将符号按出现概率由大到小顺序排列(相同概率的符号可以任意颠
17、倒位置)。(2).将概率最小的两个符号的出现概率相加合并成一个概率,与其它概率形成一个新的集合,称为缩减信源,再将缩减信源中各概率由大到小顺序排列。(3).如此重复直到最后只剩下两个概率为止。(4).分配码字,从最后一个缩减信源开始逐步向前分配码字,每一步只对一个分支赋一个二进制码,如对概率大的赋予0,对概率小的赋予1(也可将概率大的赋予1码,概率小的赋予0码)。(5).最后将二进制从后向前串起来就得到Huffman码。,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,2.举例:,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第
18、一步0.40.30.10.10.1,2.举例:,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,2.举例:,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,2.举例:,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,2.举
19、例:,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,2.举例:,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S1=1,2.举例:,S1=1,码字,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.4
20、0.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S2=00,2.举例:,S1=1,码字,S2=00,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S3=011,2.举例:,S1=1,码字,S2=00,S3=011,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第
21、二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S4=0100,2.举例:,S1=1,S2=00,S3=011,S4=0100,码字,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S5=01010,2.举例:,S1=1,S2=00,S3=011,S4=0100,S5=01010,码字,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.0
22、4,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S6=01011,2.举例:,S1=1,S2=00,S3=011,S4=0100,S5=01010,S6=01011,码字,编码效果:信源熵为:,平均码长,3Huffman编码的性能,优点:实现Huffman编码的基础是统计源数据集中各信号的概率分布。Huffman编码在无失真的编码方法中效率优于其他编码方法,是一种最佳变长码,其平均码长接近于熵值。缺点:当信源数据成分复杂时,庞大的信源集致使Huffman码表较大,码表生成的计算量增加,编译码速
23、度相应变慢不等长编码致使硬件译码电路实现困难。上述原因致使Huffman编码的实际应用受到限制。,4准变长编码,实际编码中,常采用准变长编码。(性能稍差,实现方便)规则:对概率大的符号用长码,概率小的用短码。同时在短码字集中留出一个作为长码字的字头,保证码字集的非续长性。常用的有3/6bit双字长编码。例:P146适用情况:符号集中,各符号出现概率可以明显分为高,低两类,效果较好。,6.3.2Fano编码,Fano(费诺)编码方法也是一种典型的可变字长编码。步骤:(1)先将符号按出现概率从大到小顺序排列。(2)将信源符号划分成两大组,使每组的概率和近于相同,并各赋一个二元码0和1。(3)再将每
24、一大组再分成两组,使两组概率和近似相等,并又分别赋一个二元码。(4)依次下去直到每小组只剩下一个符号为止。(5)将符号在各组中的二元码连起来就是编得的Fano码。,例1,已知,例2,从编码后的结果看,Fano码和Huffman码得到的平均码长相同,但是Fano码的缺点是当符号较多时。如何分组可有许多方案,每种方案最后的结果可能不同,所以Fano码本身有一个最佳分组方法的问题,这就使编码方法变得十分繁琐,不如Huffman实用。,作业:一幅8*8的数字图像为:对该图像进行Huffman编码,并计算编码效率和压缩比。对该图像进行Fano编码,并计算编码效率和压缩比。,6.3.3算术编码,1.算术编
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 图像 编码 压缩 技术
限制150内