合肥工业大学人工智能2009-+-2010-+-2011级考卷-+-答案(共14页).doc
《合肥工业大学人工智能2009-+-2010-+-2011级考卷-+-答案(共14页).doc》由会员分享,可在线阅读,更多相关《合肥工业大学人工智能2009-+-2010-+-2011级考卷-+-答案(共14页).doc(14页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、精选优质文档-倾情为你奉上合肥工业大学人工智能2009级考卷 + 答案一、 选择填空(在每题下面提供的多个答案中,为每个位置选择正确的答案,每空1分,共40分)1智能科学研究 B 和 C ,是由 E 、 G 、 J 等学科构成的交叉学科。A. 思维的基本理论 B. 智能的基本理论 C. 实现技术 D. 基本形态 E. 脑科学 F. 形象思维 G. 认知科学 H. 抽象思维 I. 感知思维 J. 人工智能 K. 灵感思维2深度优先搜索属于 A ,搜索原则是深度越 C 、越 D 产生结点的优先级越高。深度搜索是 H 。 A. 盲搜索 B. 启发式搜索 C. 大 D. 晚 E. 小 F. 早 G.
2、完备的 H. 不完备的 3人工智能中的符号主义在认识层次是 A ,在求解层次是 C ,在处理层次是 E ,在操作层次是 G ,在体系层次是 K 。A. 离散 B. 连续 C. 由底向上 D. 自顶向下 E. 串行 F. 并行 G. 推理 H. 映射 I. 交互 J. 分布 K. 局部4. ID3算法属于 C ,基于解释的学习属于 B ,关联分析属于 A ,SVM属于 G 。A. 发现学习 B. 分析学习 C. 归纳学习 D. 遗传学习 E. 连接学习 F. 强化学习 G. 统计学习 5封闭世界假设(CWA)属于 B ,D-S证据理论属于 D ,限定逻辑属于 B 。 A. 归结原理 B. 非单调
3、推理 C. 定性推理 D. 不确定推理 6在不确定理论中 D 无需任何先验知识(或信息), B 与 C 具有处理不精确和不确定数据的方法,而 A 使用概率去表示所有形式的不确定性。A. Bayes理论 B. 模糊集理论 C. 证据理论 D. 粗糙集 7SVM是建立在 B 和 C 原理基础上的,在解决 F 、 I 及 A 模式识别中表现出许多特有的优势。A. 高维 B. VC维 C. 结构风险最小 D. 经验风险最小E. 置信风险最小 F. 小样本 G. 大样本 H. 线性 I. 非线性8人工神经网络是 B 的典型,它的特点集中表现在以 D 方式存储信息、以 F 方式处理信息、具有自组织、自学习
4、能力。神经网络可分为四大类,著名的Hopfield网络属于 J 类。A. 符号智能 B. 计算智能 C. 集中 D。分布 E. 串行 F. 并行 G. 分层前向网络 H. 反馈前向网络 I. 互连前向网络 J. 广泛互连网络 9 在遗传算法中复制操作使用来模拟 B ,交叉操作是用来模拟 C ,而变异操作是用来模拟 A 。 A. 基因突变 B. 适者生存 C. 繁殖现象 10群智能思想的产生主要源于 B 以及 D 的研究, F 是群智能领域最著名的算法。 A. 多Agent系统 B. 复杂适应系统理论 C. 进化计算 D. 人工生命 E. PSO F. ACO G. AFSA二、 将下列语句形式
5、化(每题5分,共10分)例1:他个子高而且很胖令P表示“他个子高”,Q表示“他很胖”,于是可表示为PQ例2:任何金属都可以溶解在某种液体里以P(x)表示x是金属,Q(x)表示x是液体,R(x,y)表示x可以溶解在y中,语句的形式化为:1. 他个子矮或他不很胖都是不对的令P表示“他个子高”,Q表示“他很胖”(PQ)2. 凡实数都能比较大小以P(x)表示x是实数,Q(x,y)表示x和y可以比较大小,语句的形式化为:三、 采用广度优先搜索求解下面八数码问题,给出广度优先搜索树(10分)。四、 简答题(每题10分)1. 在不确定知识与推理研究中,模糊集理论、贝叶斯网络、粗糙集理论各有何特点?模糊集理论
6、利用模糊隶属度来表示自然界模糊现象,从研究集合与元素的关系入手研究不确定性。广泛应用于专家系统和智能控制中。模糊集是不可计算的,即没有给出数学公式描述这一含糊概念,故无法计算出它的具体的含糊元素数目,如模糊集中的隶属函数和模糊逻辑中的算子都是如此。贝叶斯网络是用来表示变量间连接概率的图形模式,它提供了一种自然的表示因果信息的方法,用来发现数据间的潜在关系。在这个网络中,用节点表示变量,有向边表示变量间的依赖关系。贝叶斯理论给出了信任函数在数学上的计算方法,具有稳固的数学基础,同时它刻画了信任度与证据的一致性及其信任度随证据而变化的增量学习特性;在数据挖掘中,贝叶斯网络可以处理不完整和带有噪声的
7、数据集,它用概率测度的权重来描述数据间的相关性,从而解决了数据间的不一致性,甚至是相互独立的问题;用图形的方法描述数据间的相互关系,语义清晰、可理解性强,这有助于利用数据间的因果关系进行预测分析。贝叶斯方法正在以其独特的不确定性知识表达形式、丰富的概率表达能力、综合先验知识的增量学习特性等成为当前数据挖掘众多方法中最为引人注目的焦点之一粗糙集理论反映了人们用粗糙集方法处理不分明问题的常规性,即以不完全信息或知识去处理一些不分明现象的能力,或依据观察、度量到的某些不精确的结果而进行分类数据的能力。基本粗糙集理论认为知识就是人类和其他物种所固有的分类能力,粗糙集理论利用集合(下近似集和上近似集)处
8、理含糊和不精确性问题。粗糙集主要优点包括:除数据集之外,无需任何先验知识(或信息);对不确定性的描述与处理相对客观。2. 群智能算法与进化算法有何异同?基于 SI 的优化算法和 EC都是基于群体迭代的启发式随机优化算法, 有着非常多相似之处, 它们都是对自然中随机系统的仿真, 都具有本质并行性。另外, 与 EC还一样的是, SI 的目的并不是为了忠实地模拟自然现象, 而是利用它们的某些特点去解决实际问题。首先,PSO和 SI 所模拟的自然随机系统不一样。EC是模拟生物系统进化过程, 其最基本单位是基因(Gene) , 它在生物体的每一代之间传播; 已有的基于 SI 的优化算法都是源于对动物社会
9、通过协作解决问题行为的模拟, 它主要强调对社会系统中个体之间相互协同作用的模拟, 其最基本单位是敏因。其次, EC中强调“适者生存” , 不好的个体在竞争中被淘汰; SI 强调 “协同合作” , 不好的个体通过学习向好的方向转变,不好的个体被保留还可以增强群体的多样性。EC中最好的个体通过产生更多的后代来传播自己的基因, 而 SI 中的优秀个体通过吸引其它个体向它靠近来传播自己的敏因。最后,EC的迭代由选择、变异和交叉重组操作组成,而 SI的迭代中的操作是 “跟随”,ACO中蚂蚁跟随信息素浓度爬行,PSO中粒子跟随最优粒子飞行。在某种程度上看,SI 的跟随操作中隐含了选择、 变异和交叉重组操作
10、。五、 什么是线性可分?简述支持向量机解决非线性可分问题的基本思想。(10分)假设存在训练样本(x1,y1) , (xn,yn) ,xRd,y+1,-1,n为样本数,d为输入维数,在线性可分的情况下就会有一个超平面使得这两类样本完全分开。如果训练数据可以无误差地被划分,以及每一类数据与超平面距离最近的向量与超平面之间的距离最大则称这个超平面为最优超平面。对非线性问题支持向量机首先通过用内积函数定义的非线性变换将输入空间变换到一个高维空间,在这个空间中求广义最优分类面。六、 解答下列问题:(10分)(1) 给出ID3算法描述 ID3 算法 选出整个训练实例集X 的规模为W 的随机子集 X1(W
11、称为窗口规模,子集称为窗口) ; 以使得(7.29)式的值最小为标准,选取每次的测试属性形成当前窗口的决策树; 顺序扫描所有训练实例,找出当前的决策树的例外,如果没有例外则训练结束; 组合当前窗口的一些训练实例与某些在(3)中找到的例外形成新的窗口,转(2)(2)表1给出了一个可能带有噪音的数据集合。它有四个属性,Outlook、Temperature、Humidity、Windy。它被分为两类,P 与 N,分别为正例与反例。用ID3构造出决策树将数据进行分类。表 1 样本数据集合属性outlooktemperaturehumiditywindy类1overcasthothighnotN2ov
12、ercasthothighveryN3overcasthothighmediumN4sunnyhothighnotP5sunnyhothighmediumP6rainmildhighnotN7rainmildhighmediumN8rainhotnormalnotP9raincoolnormalmediumN10rainhotnormalveryN11sunnycoolnormalveryP12sunnycoolnormalmediumP13overcastmildhighnotN14overcastmildhighmediumN15overcastcoolnormalnotP16overca
13、stcoolnormalmediumP17rainmildnormalnotN18rainmildnormalmediumN19overcastmildnormalmediumP20overcastmildnormalveryP21sunnymildhighveryP22sunnymildhighmediumP23sunnyhotnormalnotP24rainmildhighveryN解:可以看出 H(X/Outlook)最小,即有关 Outlook 的信息对于分类有最大的帮助,提供最大的信息量,即 I(X;Outlook)最大。所以应该选择 Outlook 属性作为测试属性。并且也可以看出
14、 H(X)=H(X/Windy) ,即 I(X;Windy)=0,有关 Windy 的信息不能提供任何有关分类的信息。选择 Outlook 作为测试属性之后将训练实例集分为三个子集,生成三个叶结点,对每个叶结点依次利用上面过程则生成图 1所示的决策树。图 1 表 1 所训练生成的决策树合肥工业大学人工智能2010级考卷 + 答案一、 选择填空(在每题下面提供的多个答案中,为每个位置选择正确的答案,每空1分,共40分)1智能科学研究 B 和 C ,是由 E 、 G 、 J 等学科构成的交叉学科。A. 思维的基本理论 B. 智能的基本理论 C. 实现技术 D. 基本形态 E. 脑科学 F. 形象思
15、维 G. 认知科学 H. 抽象思维 I. 感知思维 J. 人工智能 K. 灵感思维2深度优先搜索属于 A ,搜索原则是深度越 C 、越 D 产生结点的优先级越高。深度搜索是 H 。 A. 盲搜索 B. 启发式搜索 C. 大 D. 晚 E. 小 F. 早 G. 完备的 H. 不完备的 3人工智能中的符号主义在认识层次是 A ,在求解层次是 D ,在处理层次是 E ,在操作层次是 G ,在体系层次是 K 。A. 离散 B. 连续 C. 由底向上 D. 自顶向下 E. 串行 F. 并行 G. 推理 H. 映射 I. 交互 J. 分布 K. 局部4. ID3算法属于 C ,基于解释的学习属于 B ,关
16、联分析属于 A ,SVM属于 G 。A. 发现学习 B. 分析学习 C. 归纳学习 D. 遗传学习 E. 连接学习 F. 强化学习 G. 统计学习 5封闭世界假设(CWA)属于 B ,D-S证据理论属于 D ,限定逻辑属于 B 。 A. 归结原理 B. 非单调推理 C. 定性推理 D. 不确定推理 6在不确定理论中 D 无需任何先验知识(或信息), B 与 C 具有处理不精确和不确定数据的方法,而 A 使用概率去表示所有形式的不确定性。A. Bayes理论 B. 模糊集理论 C. 证据理论 D. 粗糙集 7SVM是建立在 B 和 C 原理基础上的,在解决 F 、 I 及 A 模式识别中表现出许
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 合肥 工业大学 人工智能 2009 2010 2011 考卷 答案 14
限制150内