信息论与编码期末考试题.docx
《信息论与编码期末考试题.docx》由会员分享,可在线阅读,更多相关《信息论与编码期末考试题.docx(13页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、信息论与编码期末考试题 信息论与编码期末考试题(一)一、判断题.1.当随机变量和相互独立时,条件熵等于信源熵.()2.由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集.()3.一般情况下,用变长编码得到的平均码长比定长编码大得多.()4.只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信.()5.各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件.()6.连续信源和离散信源的熵都具有非负性.()7.信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.8.汉明
2、码是一种线性分组码.()9.率失真函数的最小值是.()10.必然事件和不可能事件的自信息量都是.()二、填空题1、码的检、纠错能力取决于.2、信源编码的目的是; 信道编码的目的是.3、把信息组原封不动地搬到码字前位的码就叫做.4、香农信息论中的三大极限定理是、.5、设信道的输入与输出随机序列分别为和,则成立的条件.6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是.7、某二元信源,其失真矩阵,则该信源的=.三、计算题.1、某信源发送端有2种符号,; 接收端有3种符号,转移概率矩阵为.(1)计算接收端的平均不确定度; (2)计算由于噪声产生的不确定度; (3)计算信道容量以
3、及最佳入口分布.2、一阶马尔可夫信源的状态转移图如右图所示,信源的符号集为.(1)求信源平稳后的概率分布; (2)求此信源的熵; (3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵并与进行比较.3、设码符号为,信源空间为试构造一种三元紧致码.4、设二元线性分组码的生成矩阵为.(1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式; (2)若接收矢量,试计算出其对应的伴随式并按照最小距离译码准则试着对其译码.(二)一、填空题1、信源编码的主要目的是,信道编码的主要目的是。 2、信源的剩余度主要来自两个方面,一是,二是。 3、三进制信源的最小熵为,最大熵为。 4
4、、无失真信源编码的平均码长最小理论极限制为。 5、当时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为和。 7、根据是否允许失真,信源编码可分为和。 8、若连续信源输出信号的平均功率为,则输出信号幅度的概率密度是时,信源具有最大熵,其值为值。 9、在下面空格中选择填入数学符号“”或“”(1)当X和Y相互独立时,H(XY)H(X)+H(X/Y)H(Y)+H(X)。 (2)(3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)0,H(Y/X)0,I(X;Y)H(X)。 二、若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算
5、该信源的相对熵,并说明该信源的绝对熵为多少。 三、已知信源(1)用霍夫曼编码法编成二进制变长码; (6分)(2)计算平均码长;(4分)(3)计算编码信息率;(2分)(4)计算编码后信息传输率;(2分)(5)计算编码效率。(2分)四、某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5。计算: (1)信息传输速率。(5分)(2)将这些数据通过一个带宽为B=2021kHz的加性白高斯噪声信道传输,噪声的单边功率谱密度为。试计算正确传输这些数据最少需要的发送功率P。(5分)五、一个一阶马尔可夫信源,转移概率为。 (
6、1)画出状态转移图。(4分)(2)计算稳态概率。(4分)(3)计算马尔可夫信源的极限熵。(4分)(4)计算稳态下,及其对应的剩余度。(4分)六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。 七、设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算(1)(2)(3)(4);八、设离散无记忆信源的概率空间为,通过干扰信道,信道输出端的接收符号集为,信道传输概率如下图所示。 (1)计算信源中事件包含的自信息量; (2)计算信源的信息熵; (3)计算信道疑义度; (4)计算噪声熵; (5)计算收到消息后获得的平均互信息量。 信息论
7、基础参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr=Hr(S))。 5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为,则输出信号幅度的概率密度是高斯分布或正态分布或时
8、,信源具有最大熵,其值为值。 9、在下面空格中选择填入数学符号“”或“”(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。 (2)(3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)0,H(Y/X)=0,I(X;Y)0时率失真函数的和?二、综合题1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵; 2)假设黑白消息出现前后有关联,其依赖关系为:,求其熵; 2.二元对称信道如图。; 1)若,求和; 2)求该信道的
9、信道容量和最佳输入分布。 3.信源空间为,试分别构造二元和三元霍夫曼码,计算其平均码长和编码效率。 4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。 5.5.已知一(8,5)线性分组码的生成矩阵为。 求:1)输入为全00011和10100时该码的码字; 2)最小码距。 6.设某一信号的信息传输率为5.6kbit/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5106mw/Hz。试求: (1)无差错传输需要的最小输入功率是多少?(2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。 答案一、概
10、念简答题1.答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2.答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为。 3.答:信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的型凸函数,是信道传递概率的U型凸函数。4.答:通信系统模型如下: 数据处理定理为:串联信道的输入输出X、
11、Y、Z组成一个马尔可夫链,且有,。说明经数据处理后,一般只会增加信息的损失。 5.答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。 由得,则6.答:只要,当N足够长时,一定存在一种无失真编码。 7.答:当RC时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.答:1)保真度准则为:平均失真度不大于允许的失真度。 2)因为失真矩阵中每行都有一个0,所以有,而。 二、综合题1.答:1)信源模型为2)由得则2.答:1)2),最佳输入概率分布为等概率分布。 3.答:1)二元码的码字依序为:10,11,010,011,1010,1011
12、,1000,1001。 平均码长,编码效率2)三元码的码字依序为:1,00,02,20,21,22,010,011。 平均码长,编码效率4.答:1)最小似然译码准则下,有,2)最大错误概率准则下,有,5.答:1)输入为00011时,码字为00011110; 输入为10100时,码字为xxxx。 2)6.答:1)无错传输时,有即则2)在时,最大熵对应的输入概率密度函数为(七)一、名词解释(25道)1、“本体论”的信息(P3)2、“认识论”信息(P3)3、离散信源(11)4、自信息量(12)5、离散平稳无记忆信源(49)6、马尔可夫信源(58)7、信源冗余度(66)8、连续信源(68)9、信道容量
13、(95)10、强对称信道(99)11、对称信道(101-102)12、多符号离散信道(109)13、连续信道(124)14、平均失真度(136)15、实验信道(138)16、率失真函数(139)17、信息价值率(163)18、游程序列(181)19、游程变换(181)20、L-D编码(184)、21、冗余变换(184)22、BSC信道(189)23、码的最小距离(193)24、线性分组码(195)25、循环码(213)二、填空(100道)1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创
14、立了信息论。 3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 4、按照信息的地位,可以把信息分成客观信息和主观信息。 5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 6、信息的可度量性是建立信息论的基础。 7、统计度量是信息度量最常用的方法。 8、熵是香农信息论最基本最重要的概念。 9、事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。
15、13、必然事件的自信息是0。 14、不可能事件的自信息量是。 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有nm个不同的状态。 20、一维连续随即变量X在a,b区间内均匀分布时,其信源熵为log2(b-a)。 21、平均功率为P的高斯分布的连续信源,其信源熵,Hc(X)=。 22、对于限峰值功率的N维连续信源,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 期末 考试题
限制150内