信号与系统习题 .doc
《信号与系统习题 .doc》由会员分享,可在线阅读,更多相关《信号与系统习题 .doc(25页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、1,某系统(7,4)码其三位校验位与信息位的关系为:(1)求对应的生成矩阵和校验矩阵;(2)计算该码的最小距离;(3)列出可纠差错图案和对应的伴随式;(4)若接收码字R=,求发码。解:(1) (2) dmin=3 (3)SE000001010100101111011110 (4). RHT=001 接收出错E= R+E=C= (发码)2.已知的联合概率为:求, 解: 0.918 bit/symbol =1.585 bit/symbol 0.251 bit/symbol 3.一阶齐次马尔可夫信源消息集,状态集,且令,条件转移概率为,(1)画出该马氏链的状态转移图;(2)计算信源的极限熵。解:(1
2、)(2)H(X|S1) =H(1/4,1/4,1/2)=1.5比特/符号H(X|S2)=H(1/3,1/3,1/3)=1.585比特/符号H(X|S3)=H(2/3,1/3)= 0.918比特/符号 比特/符号4.若有一信源,每秒钟发出2.55个信源符号。将此信源的输出符号送入某一个二元信道中进行传输(假设信道是无噪无损的,容量为1bit/二元符号),而信道每秒钟只传递2个二元符号。(1) 试问信源不通过编码(即x10,x21在信道中传输)(2) 能否直接与信道连接?(3) 若通过适当编码能否在此信道中进行无失真传输?(4) 试构造一种哈夫曼编码(两个符号一起编码),(5) 使该信源可以在此信
3、道中无失真传输。解:(1)不能,此时信源符号通过0,1在信道中传输,2.55二元符号/s2二元符号/s (2)从信息率进行比较, 2.55*= 1.84 1*2 可以进行无失真传输 (3)1.56 二元符号/2个信源符号此时 1.56/2*2.55=1.989二元符号/s 0时率失真函数的和?9.简述离散信源和连续信源的最大熵定理。10.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少?11.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。12.设某二元码字C=111000,001011,
4、010110,101110,假设码字等概率分布,计算此码的编码效率?采用最小距离译码准则,当接收序列为110110时,应译成什么码字?13.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按 发出符号,求和平均符号熵 14.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。15.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。16.求以下三个信道的信道容量:,17.已知一(3,1,3)卷积码编码器,输入输出关系为:试给出其编码原理框图。18. 简述信源的符号之间
5、的依赖与信源冗余度的关系。19. 简述香农第一编码定理的物理意义?20. 什么是最小码距, 以及它和检错纠错能力之间的关系。21. 简述信息的特征22. 简单介绍哈夫曼编码的步骤一、 概念简答题(每题5分,共40分)1.答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。2.答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。最大熵值为。3.答:信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率
6、。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。平均互信息是信源概率分布的型凸函数,是信道传递概率的U型凸函数。4.答:通信系统模型如下:数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有,。说明经数据处理后,一般只会增加信息的损失。5.答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。由得,则6.答:只要,当N足够长时,一定存在一种无失真编码。7.答:当RC时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。8.答:1)保真度准则为:平均失真度不大于允许的失真度。2)因为失真矩阵中每行都有一个0
7、,所以有,而。9.答:离散无记忆信源,等概率分布时熵最大。连续信源,峰值功率受限时,均匀分布的熵最大。平均功率受限时,高斯分布的熵最大。均值受限时,指数分布的熵最大。10.答:等长信源编码定理:对于任意,只要,则当L足够长时必可使译码差错。变长信源编码定理:只要,一定存在一种无失真编码。等长码和变长码的最小平均码长均为,编码效率最高可达100%。11.答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字。最大似然译码准则下,将接收序列译为信道传递概率最大时所对应的码字。最小距离译码准则下,将接收序列译为与其距离最小的码字。三者关系为:输入为等概率分布时,最大似然译码准则等效于最
8、小错误概率译码准则。在二元对称无记忆信道中,最小距离译码准则等效于最大似然译码准则。12.答:1)2)令接收序列为,则有,故接收序列应译为010110。13.答:14.答:平均互信息相对于信源概率分布为上凸函数,相对于信道传递概率分布为下凹函数。平均互信息的最大值为信道容量。15.答:1)2)16.答:P1为一一对应确定信道,因此有。P2为具有归并性能的信道,因此有。P3为具有发散性能的信道,因此有。17.答:18. 当信源的符号之间有依赖时,信源输出消息的不确定性减弱。而信源冗余度正是反映信源符号依赖关系的强弱,冗余度越大,依赖关系就越大。19. 答:无失真信源编码,编码后尽可能等概率分布,
9、 使每个码元平均信息量最大。从而使信道信息传输率R达到信道容量C, 实现信源与信道理想的统计匹配。20. 某一码书C中, 任意两个码字之间汉明距离的最小值称为该码的最小码距Dmin.当已知某线性分组码的最小汉明距离为Dmin,那么这组码最多能检测出e =Dmin-1个码元错误,最多能纠正t =(Dmin-1) /2个码元错误。21. 答:信息的基本概念在于它的不确定性,任何已确定的事物都不含信息。接收者在收到信息之前,对它的内容是不知道的,所以信息是新知识、新内容。信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识。信息可以产生,也可以消失,同时信息可以被携带、贮存及处理。信息是可以
10、量度的,信息量有多少的差别。22.将信源消息符号按其出现的概率大小依次排列 p(x1)p(x2) p(xn) 取两个概率最小的符号分别配以0和1,并将这两个概率相加作为一个新符号的概率,与未分配码元的符号重新排队。 对重排后的两个概率最小符号重复步骤2的过程。 继续上述过程,直到最后两个符号配以0和1为止。 从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即相应的码字。二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1) 黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵;2
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信号与系统习题 信号 系统 习题
限制150内