信息论与编码期末考试题----学生复习(共9页).doc
《信息论与编码期末考试题----学生复习(共9页).doc》由会员分享,可在线阅读,更多相关《信息论与编码期末考试题----学生复习(共9页).doc(9页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、精选优质文档-倾情为你奉上信息论基础参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。3、三进制信源的最小熵为0,最大熵为bit/符号。4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= Hr(S))。5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。8、若连续信源输出信号的平均功率为,则输出信号幅度的概率密度是高
2、斯分布或正态分布或时,信源具有最大熵,其值为值。9、在下面空格中选择填入数学符号“”或“”(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。(2)(3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y) 0, H(Y/X)=0,I(X;Y)0时率失真函数的和?二、综合题1.黑白气象传真图的消息只有黑色和白色两种,求:1) 黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵;2) 假设黑白消息出现前后有关联,其依赖关系为:,求其熵 ;2.二元对称信道如图。;1)若,求和
3、; 2)求该信道的信道容量和最佳输入分布。3.信源空间为,试分别构造二元和三元霍夫曼码,计算其平均码长和编码效率。4. 设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。5. 5.已知一(8,5)线性分组码的生成矩阵为。求:1)输入为全00011和10100时该码的码字;2)最小码距。6. 设某一信号的信息传输率为5.6kbit/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5106mw/Hz。试求:(1)无差错传输需要的最小输入功率是多少?(2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。答
4、案一、 概念简答题1.答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。2.答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。最大熵值为。3.答:信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。平均互信息是信源概率分布的型凸函数,是信道传递概率的U型凸函数。4.答:通信系统模型如下:数据处理定理为:串联信道的输入输出X、Y
5、、Z组成一个马尔可夫链,且有,。说明经数据处理后,一般只会增加信息的损失。5.答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。由得,则6.答:只要,当N足够长时,一定存在一种无失真编码。7.答:当RC时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。8.答:1)保真度准则为:平均失真度不大于允许的失真度。2)因为失真矩阵中每行都有一个0,所以有,而。二、综合题1.答:1)信源模型为2)由得则2.答:1) 2),最佳输入概率分布为等概率分布。3.答:1)二元码的码字依序为:10,11,010,011,1010,1011,1000,1
6、001。平均码长,编码效率2)三元码的码字依序为:1,00,02,20,21,22,010,011。平均码长,编码效率4.答:1)最小似然译码准则下,有,2)最大错误概率准则下,有,5.答:1)输入为00011时,码字为;输入为10100时,码字为。2)6.答:1)无错传输时,有即则2)在时,最大熵对应的输入概率密度函数为(七)一、名词解释(25道)1、“本体论”的信息(P3) 2、“认识论”信息(P3) 3、离散信源(11)4、自信息量(12) 5、离散平稳无记忆信源(49) 6、马尔可夫信源(58) 7、信源冗余度 (66) 8、连续信源 (68) 9、信道容量 (95) 10、强对称信道
7、 (99) 11、对称信道 (101-102)12、多符号离散信道(109)13、连续信道 (124) 14、平均失真度 (136) 15、实验信道 (138)16、率失真函数 (139) 17、信息价值率 (163) 18、游程序列 (181)19、游程变换 (181) 20、L-D编码(184)、 21、冗余变换 (184)22、BSC信道 (189) 23、码的最小距离 (193)24、线性分组码 (195)25、循环码 (213)二、填空(100道)1、 在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。2、 1948年,美国数学家 香农 发表了题为“通信
8、的数学理论”的长篇论文,从而创立了信息论。3、 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。4、 按照信息的地位,可以把信息分成 客观信息和主观信息 。5、 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。6、 信息的 可度量性 是建立信息论的基础。7、 统计度量 是信息度量最常用的方法。8、 熵 是香农信息论最基本最重要的概念。9、 事物的不确定度是用时间统计发生 概率的对数 来描述的。10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数
9、的负值 。12、自信息量的单位一般有 比特、奈特和哈特 。13、必然事件的自信息是 0 。14、不可能事件的自信息量是 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。 18、离散平稳有记忆信源的极限熵,。19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。20、一维连续随即变量X在a,b区间内均匀分布时,其信源熵为 log2(b-a) 。21、平均功率为P的高斯分布的
10、连续信源,其信源熵,Hc(X)=。22、对于限峰值功率的N维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率 之比 。25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。26、m元长度为ki,i=1,2,n的异前置码存在的充要条件是:。27、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 。28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3
11、和5同时出现”这件事的自信息量是 log218(1+2 log23)。29、若一维随即变量X的取值区间是0,其概率密度函数为,其中:,m是X的数学期望,则X的信源熵。30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 。31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。33、具有一一对应关系的无噪信道的信道容量C= log2n 。34、强对称信道的信道容量C= log2n-Hni 。35、对称信道的信道容量C= log2m
12、-Hmi 。36、对于离散无记忆信道和信源的N次扩展,其信道容量CN= NC 。37、对于N个对立并联信道,其信道容量 CN = 。38、多用户信道的信道容量用 多维空间的一个区域的界限 来表示。39、多用户信道可以分成几种最基本的类型: 多址接入信道、广播信道 和相关信源信道。40、广播信道是只有 一个输入端和多个输出端 的信道。41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为 加性连续信道 。42、高斯加性信道的信道容量C=。43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。44、信道矩阵代表的信道的信道容量C=
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 期末 考试题 学生 复习
限制150内