第8章 无失真的信源编码优秀PPT.ppt
《第8章 无失真的信源编码优秀PPT.ppt》由会员分享,可在线阅读,更多相关《第8章 无失真的信源编码优秀PPT.ppt(50页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第8章 无失真的信源编码现在学习的是第1页,共50页8.1 霍夫曼(霍夫曼(Huffman)码)码设离散无记忆信源二进制香农码的编码步骤如下:将信源符号按概率从大到小的顺序排列,为方便起见,令 p(x1)p(x2)p(xn)令p(x0)=0,用pa(xj),j=i+1表示第i个码字的累加概率,则:确定满足下列不等式的整数ki,并令ki为第i个码字的长度log2 p(xn)ki log2 p(xn)+1将pa(xj)用二进制表示,并取小数点后ki 位作为符号xi的编码。现在学习的是第2页,共50页例 有一单符号离散无记忆信源对该信源编二进制香农码。其编码过程如下表所示。8.1 霍夫曼(霍夫曼(H
2、uffman)码)码现在学习的是第3页,共50页计算出给定信源香农码的平均码长若对上述信源采用等长编码,要做到无失真译码,每个符号至少要用3个比特表示。相比较,香农编码对信源进行了压缩。由离散无记忆信源熵定义,可计算出:对上述信源采用香农编码的信息率为编码效率为信源熵和信息率之比。则可以看出,编码效率并不是很高。8.1 霍夫曼(霍夫曼(Huffman)码)码现在学习的是第4页,共50页第六节第六节 费诺编码费诺编码费诺编码也是一种常见的信源编码方法。编码步骤如下:将概率按从大到小的顺序排列,令p(x1)p(x2)p(xn)按编码进制数将概率分组,使每组概率尽可能接近或相等。如编二进制码就分成两
3、组,编m进制码就分成m组。给每一组分配一位码元。将每一分组再按同样原则划分,重复步骤2和3,直至概率不再可分为止。现在学习的是第5页,共50页第六节第六节 费诺编码费诺编码例 设有一单符号离散信源对该信源编二进制费诺码。编码过程如下表。现在学习的是第6页,共50页第六节第六节 费诺编码费诺编码该信源的熵为平均码长为编码效率为本例中费诺编码有较高的编码效率。费诺码比较适合于每次分组概率都很接近的信源。特别是对每次分组概率都相等的信源进行编码时,可达到理想的编码效率。现在学习的是第7页,共50页第六节第六节 费诺编码费诺编码题中码字还可用码树来表示,如图所示。现在学习的是第8页,共50页第七节第七
4、节 霍夫曼编码霍夫曼编码 霍夫曼(Huffman)编码是一种效率比较高的变长无失真信源编码方法。编码步骤二进制哈夫曼编码m进制哈夫曼编码现在学习的是第9页,共50页第七节第七节 霍夫曼编码霍夫曼编码编码步骤将信源符号按概率从大到小的顺序排列,令p(x1)p(x2)p(xn)给两个概率最小的信源符号p(xn-1)和p(xn)各分配一个码位“0”和“1”,将这两个信源符号合并成一个新符号,并用这两个最小的概率之和作为新符号的概率,结果得到一个只包含(n1)个信源符号的新信源。称为信源的第一次缩减信源,用S1表示。将缩减信源S1的符号仍按概率从大到小顺序排列,重复步骤2,得到只含(n2)个符号的缩减
5、信源S2。重复上述步骤,直至缩减信源只剩两个符号为止,此时所剩两个符号的概率之和必为1。然后从最后一级缩减信源开始,依编码路径向前返回,就得到各信源符号所对应的码字。现在学习的是第10页,共50页第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码例 设单符号离散无记忆信源如下,要求对信源编二进制 霍夫曼码。编码过程如下图(后页)。在图中读取码字的时候,一定要从后向前读,此时编出来的码字才是可分离的异前置码。若从前向后读取码字,则码字不可分离。现在学习的是第11页,共50页第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码现在学习的是第12页,共50页第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫
6、曼编码将上图左右颠倒过来重画一下,即可得到二进制哈夫曼码的码树。现在学习的是第13页,共50页信源熵为:平均码长为编码效率为若采用定长编码,码长K=3,则编码效率可见哈夫曼的编码效率提高了12.7%。第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码现在学习的是第14页,共50页第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码注意:哈夫曼的编法并不惟一哈夫曼的编法并不惟一。每次对缩减信源两个概率最小的符号分配“0”和“1”码元是任意的,所以可得到不同的码字。只要在各次缩减信源中保持码元分配的一致性,即能得到可分离码字。不同的码元分配,得到的具体码字不同,但码长ki不变,平均码长 也不变,所以
7、没有本质区别;缩减信源时,若合并后的新符号概率与其他符号概率相等,从编码方法上来说,这几个符号的次序可任意排列,编出的码都是正确的,但得到的码字不相同。不同的编法得到的码字长度ki也不尽相同。现在学习的是第15页,共50页例:单符号离散无记忆信源 ,用两种不同的方法对其编二进制哈夫曼码。siliWi概率s1s2s3s4s512344101000001000110.40.20.20.10.1 0.4 0.2 0.2 0.2 0.4 0.4 0.2 0.6 0.4010101方法一:合并后的新符号排在其它相同概率符号的后面。第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码现在学习的是第16页,共
8、50页siliWi概率s1s2s3s4s512344101000001000110.40.20.20.10.1 0.4 0.2 0.2 0.2 0.4 0.4 0.2 0.6 0.4010101 这两种编码哪一种更好呢,我们来计算一下二者的码长。方法二:合并后的新符号排在其它相同概率符号的前面。第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码现在学习的是第17页,共50页两种编码的平均码长是一样的,都是2.2,那一种更好呢,我们可以计算一下平均码长的方差。定义码字长度的方差2:第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码现在学习的是第18页,共50页第七节第七节 霍夫曼编码霍夫曼编码二
9、进制哈夫曼编码可见:第二种编码方法的码长方差要小许多。意味着第二种编码方法的码长变化较小,比较接近于平均码长。第一种方法编出的5个码字有4种不同的码长;第二种方法编出的码长只有两种不同的码长;显然,第二种编码方法更简单、更容易实现,所以更好。结论结论:在哈夫曼编码过程中,对缩减信源符号按概率由大到小的顺序重新排列时,应使合并后的新符号尽可能排在靠前的位置,这样可使合并后的新符号重复编码次数减少,使短码得到充分利用。现在学习的是第19页,共50页第七节第七节 霍夫曼编码霍夫曼编码m进制哈夫曼编码“全树”概念定义:码树图中每个中间节点后续的枝数为m时称为全树;若有些节点的后续枝数不足m,就称为非全
10、树。二进制码不存在非全树的情况,因为后续枝数是一时,这个枝就可以去掉使码字长度缩短。对m进制编码:若所有码字构成全树,可分离的码字数(信源个数)必为 m+k(m1)。k为信源缩减次数。若信源所含的符号数n不能构成m进制全树,必须增加s个不用的码字形成全树。显然s0(i=1,2,n)信源符号的累积分布函数为:所得累积分布函数为每台级的下界值,则其区间为0,1)左闭右开区间。F(a1)=0 F(a2)=P(a1)F(a3)=P(a1)+P(a2)当A=0,1二元信源二元信源时:F(0)=0,F(1)=P(0)现在学习的是第35页,共50页第八节第八节 游程编码、算术编码、冗余编码游程编码、算术编码
11、、冗余编码算算术术编编码码计算二元无记忆信源序列二元无记忆信源序列的累积分布函数初始时:在0,1)区间内由F(1)划分成二个子区间0,F(1)和F(1),1),F(1)=P(0)。子区间0,F(1)的宽度为A(0)=P(0),对应于信源符号“0”;子区间F(1),1)的宽度为A(1)=P(1),对应于信源符号“1”;若输入符号序列的第一个符号为s=“0”,落入0,F(1)区间,得累积分布函数F(s=“0”)=F(0)=0;现在学习的是第36页,共50页第八节第八节 游程编码、算术编码、冗余编码游程编码、算术编码、冗余编码算算术术编编码码输入第二个符号为“1”,s=“01”s=“01”所对应的区
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第8章 无失真的信源编码优秀PPT 失真 信源 编码 优秀 PPT
限制150内