第8章 无失真的信源编码PPT讲稿.ppt
《第8章 无失真的信源编码PPT讲稿.ppt》由会员分享,可在线阅读,更多相关《第8章 无失真的信源编码PPT讲稿.ppt(50页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第8章 无失真的信源编码第1页,共50页,编辑于2022年,星期一8.1 霍夫曼(霍夫曼(Huffman)码)码设离散无记忆信源二进制香农码的编码步骤如下:将信源符号按概率从大到小的顺序排列,为方便起见,令 p(x1)p(x2)p(xn)令p(x0)=0,用pa(xj),j=i+1表示第i个码字的累加概率,则:确定满足下列不等式的整数ki,并令ki为第i个码字的长度log2 p(xn)ki log2 p(xn)+1将pa(xj)用二进制表示,并取小数点后ki 位作为符号xi的编码。第2页,共50页,编辑于2022年,星期一例 有一单符号离散无记忆信源对该信源编二进制香农码。其编码过程如下表所示
2、。8.1 霍夫曼(霍夫曼(Huffman)码)码第3页,共50页,编辑于2022年,星期一计算出给定信源香农码的平均码长若对上述信源采用等长编码,要做到无失真译码,每个符号至少要用3个比特表示。相比较,香农编码对信源进行了压缩。由离散无记忆信源熵定义,可计算出:对上述信源采用香农编码的信息率为编码效率为信源熵和信息率之比。则可以看出,编码效率并不是很高。8.1 霍夫曼(霍夫曼(Huffman)码)码第4页,共50页,编辑于2022年,星期一第六节第六节 费诺编码费诺编码费诺编码也是一种常见的信源编码方法。编码步骤如下:将概率按从大到小的顺序排列,令p(x1)p(x2)p(xn)按编码进制数将概
3、率分组,使每组概率尽可能接近或相等。如编二进制码就分成两组,编m进制码就分成m组。给每一组分配一位码元。将每一分组再按同样原则划分,重复步骤2和3,直至概率不再可分为止。第5页,共50页,编辑于2022年,星期一第六节第六节 费诺编码费诺编码例 设有一单符号离散信源对该信源编二进制费诺码。编码过程如下表。第6页,共50页,编辑于2022年,星期一第六节第六节 费诺编码费诺编码该信源的熵为平均码长为编码效率为本例中费诺编码有较高的编码效率。费诺码比较适合于每次分组概率都很接近的信源。特别是对每次分组概率都相等的信源进行编码时,可达到理想的编码效率。第7页,共50页,编辑于2022年,星期一第六节
4、第六节 费诺编码费诺编码题中码字还可用码树来表示,如图所示。第8页,共50页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码 霍夫曼(Huffman)编码是一种效率比较高的变长无失真信源编码方法。编码步骤二进制哈夫曼编码m进制哈夫曼编码第9页,共50页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码编码步骤将信源符号按概率从大到小的顺序排列,令p(x1)p(x2)p(xn)给两个概率最小的信源符号p(xn-1)和p(xn)各分配一个码位“0”和“1”,将这两个信源符号合并成一个新符号,并用这两个最小的概率之和作为新符号的概率,结果得到一个只包含(n1)个信源符号的新信源
5、。称为信源的第一次缩减信源,用S1表示。将缩减信源S1的符号仍按概率从大到小顺序排列,重复步骤2,得到只含(n2)个符号的缩减信源S2。重复上述步骤,直至缩减信源只剩两个符号为止,此时所剩两个符号的概率之和必为1。然后从最后一级缩减信源开始,依编码路径向前返回,就得到各信源符号所对应的码字。第10页,共50页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码例 设单符号离散无记忆信源如下,要求对信源编二进制 霍夫曼码。编码过程如下图(后页)。在图中读取码字的时候,一定要从后向前读,此时编出来的码字才是可分离的异前置码。若从前向后读取码字,则码字不可分离。第11页,共5
6、0页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码第12页,共50页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码将上图左右颠倒过来重画一下,即可得到二进制哈夫曼码的码树。第13页,共50页,编辑于2022年,星期一信源熵为:平均码长为编码效率为若采用定长编码,码长K=3,则编码效率可见哈夫曼的编码效率提高了12.7%。第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码第14页,共50页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码注意:哈夫曼的编法并不惟一哈夫曼的编法并不惟一。每次对缩减信源两个概率最小
7、的符号分配“0”和“1”码元是任意的,所以可得到不同的码字。只要在各次缩减信源中保持码元分配的一致性,即能得到可分离码字。不同的码元分配,得到的具体码字不同,但码长ki不变,平均码长 也不变,所以没有本质区别;缩减信源时,若合并后的新符号概率与其他符号概率相等,从编码方法上来说,这几个符号的次序可任意排列,编出的码都是正确的,但得到的码字不相同。不同的编法得到的码字长度ki也不尽相同。第15页,共50页,编辑于2022年,星期一例:单符号离散无记忆信源 ,用两种不同的方法对其编二进制哈夫曼码。siliWi概率s1s2s3s4s512344101000001000110.40.20.20.10.
8、1 0.4 0.2 0.2 0.2 0.4 0.4 0.2 0.6 0.4010101方法一:合并后的新符号排在其它相同概率符号的后面。第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码第16页,共50页,编辑于2022年,星期一siliWi概率s1s2s3s4s512344101000001000110.40.20.20.10.1 0.4 0.2 0.2 0.2 0.4 0.4 0.2 0.6 0.4010101 这两种编码哪一种更好呢,我们来计算一下二者的码长。方法二:合并后的新符号排在其它相同概率符号的前面。第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码第17页,共50页,编辑于20
9、22年,星期一两种编码的平均码长是一样的,都是2.2,那一种更好呢,我们可以计算一下平均码长的方差。定义码字长度的方差2:第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码第18页,共50页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码二进制哈夫曼编码可见:第二种编码方法的码长方差要小许多。意味着第二种编码方法的码长变化较小,比较接近于平均码长。第一种方法编出的5个码字有4种不同的码长;第二种方法编出的码长只有两种不同的码长;显然,第二种编码方法更简单、更容易实现,所以更好。结论结论:在哈夫曼编码过程中,对缩减信源符号按概率由大到小的顺序重新排列时,应使合并后的新符号尽可能排在靠
10、前的位置,这样可使合并后的新符号重复编码次数减少,使短码得到充分利用。第19页,共50页,编辑于2022年,星期一第七节第七节 霍夫曼编码霍夫曼编码m进制哈夫曼编码“全树”概念定义:码树图中每个中间节点后续的枝数为m时称为全树;若有些节点的后续枝数不足m,就称为非全树。二进制码不存在非全树的情况,因为后续枝数是一时,这个枝就可以去掉使码字长度缩短。对m进制编码:若所有码字构成全树,可分离的码字数(信源个数)必为 m+k(m1)。k为信源缩减次数。若信源所含的符号数n不能构成m进制全树,必须增加s个不用的码字形成全树。显然s0(i=1,2,n)信源符号的累积分布函数为:所得累积分布函数为每台级的
11、下界值,则其区间为0,1)左闭右开区间。F(a1)=0 F(a2)=P(a1)F(a3)=P(a1)+P(a2)当A=0,1二元信源二元信源时:F(0)=0,F(1)=P(0)第35页,共50页,编辑于2022年,星期一第八节第八节 游程编码、算术编码、冗余编码游程编码、算术编码、冗余编码算算术术编编码码计算二元无记忆信源序列二元无记忆信源序列的累积分布函数初始时:在0,1)区间内由F(1)划分成二个子区间0,F(1)和F(1),1),F(1)=P(0)。子区间0,F(1)的宽度为A(0)=P(0),对应于信源符号“0”;子区间F(1),1)的宽度为A(1)=P(1),对应于信源符号“1”;若
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第8章 无失真的信源编码PPT讲稿 失真 信源 编码 PPT 讲稿
限制150内