《数据仓库与数据挖掘技术.docx》由会员分享,可在线阅读,更多相关《数据仓库与数据挖掘技术.docx(11页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、数据仓库与数据挖掘技术复习资料数据仓库与数据挖掘技术复习资料一、单项选择题1.数据挖掘技术包括三个主要的部分 ( C) A数据、模型、技术B算法、技术、领域知识C数据、建模能力、算法与技术D建模能力、算法与技术、领域知识2.关于基本数据的元数据是指: (D)A.基本元数据与数据源,数据仓库,数据集市和应用程序等结构相关的信息; B.基本元数据包括与企业相关的管理方面的数据和信息;C.基本元数据包括日志文件和简历执行处理的时序调度信息;D.基本元数据包括关于装载和更新处理,分析处理以及管理方面的信息。3. 关于 OLAP 和 OLTP 的说法,下列不正确的是: (A) AOLAP 事务量大,但事
2、务内容比较简单且重复率高BOLAP 的最终数据来源与 OLTP 不一样COLTP 面对的是决策人员和高层管理人员DOLTP 以应用为核心,是应用驱动的4. 将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务? (C)A. 频繁模式挖掘B. 分类和预测C. 数据预处理D. 数据流挖掘5下面哪种不属于数据预处理的方法? (D)A.变量代换B.离散化C. 聚集D. 估计遗漏值6. 在 ID3 算法中信息增益是指(D)A. 信息的溢出程度B.信息的增加效益C.熵增加的程度最大D.熵减少的程度最大7. 以下哪个算法是基于规则的分类器 (A )A. C4.5B. KNNC. BayesD.
3、 ANN8.以 下 哪 项 关 于 决 策 树 的 说 法 是 错 误 的(C)A冗余属性不会对决策树的准确率造成不利的影响B子树可能在决策树中重复多次 C决策树算法对于噪声的干扰非常敏感 D寻找最佳决策树是 NP 完全问题第 11 页 共 11 页9. 假设收入属性的最小与最大分别是 10000 和 90000,现在想把当前值 30000 映射到区间0,1,若采用最大最小数据规范方法,计算结果是(A)A. 0.25B. 0.375C.0.125D. 0.510. 在抽样方法中,当合适的样本容量很难确定时,可以使用的抽样方法是: (D)A. 有放回的简单随机抽样B.无放回的简单随机抽样C.分层
4、抽样D.渐进抽样11. 当不知道数据所带标签时,可以使用哪种技术促使带同类标签的数据与带其 他标签的数据相分离?(B)A. 分类B.聚类C. 关联分析D. 隐马尔可夫链12. 设 X=1,2,3是频繁项集,则可由 X 产生(C)个关联规则。A.4B.5C.6D.713.( C)将两个簇的邻近度定义为不同簇的所有点对的平均逐对邻近度,它 是一种凝聚层次聚类技术。AMIN(单链)BMAX(全链)C组平均DWard 方法14. 只有非零值才重要的二元属性被称作:(C) A.计数属性B.离散属性C.非对称的二元属性D.对称属性15. 在基本 K 均值算法里,当邻近度函数采用(A)的时候,合适的质心是簇
5、中各点的中位数。A. 曼哈顿距离B.平方欧几里德距离C.余弦距离D.Bregman 散度16. 下面关于数据粒度的描述不正确的是: (C)A. 粒度是指数据仓库小数据单元的详细程度和级别B. 数据越详细,粒度就越小,级别也就越高C. 数据综合度越高,粒度也就越大,级别也就越高D. 粒度的具体划分将直接影响数据仓库中的数据量以及查询质量17. 某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种 属于数据挖掘的哪类问题?( B )A.聚类B.关联规则发现C.分类D.自然语言处理18. OLAP 技术的核心是:(D )A.在线性B.对用户的快速响应C. 互操作性D.多维分析19下面哪
6、种不属于数据预处理的方法? (D)A.变量代换B.离散化C. 聚集D.估计遗漏值20.假设 12 个销售价格记录组已经排序如下:5, 10, 11, 13, 15, 35, 50, 55,72, 92, 204, 215 使用如下每种方法将它们划分成四个箱。等深划分时, 15 在第几个箱子内? (B)A. 第一个B.第二个C.第三个D.第四个21. 上题中,等宽划分时(宽度为 50),15 又在哪个箱子里? (A) A.第一个B.第二个C.第三个D.第四个22. 熵是为消除不确定性所需要获得的信息量,投掷均匀正六面体骰子的熵是: (B)A.1bitB.2.6bit C.3.2bit D.3.8
7、bit23. 假设属性 income 的最大最小值分别是 12000 元和 98000 元。利用最大最小规范化的方法将属性的值映射到 0 至 1 的范围内。对属性 income 的 73600 元将被转 化 为 :( D )A.0.821B.1.224 C.1.458 D.0.71624. 假定用于分析的数据包含属性 age。数据元组中 age 的值如下(按递增序): 13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35, 36,40,45,46,52,70, 问题:使用按箱平均值平滑方法对上述数据进行平滑, 箱的深度为 3。第二个箱子值为
8、:( A )A. 18.3B. 22.6 C. 26.8 D.27.925.给定两个对象,分别用元组(22,1,42,10)和(20,0,36,8)表示,则这两个对象之间的曼哈坦距离为:( )A.5B.11C.2.92 D.2.2426. 概念分层图是( B )图。A.无向无环 B.有向无环 C.有向有环 D.无向有环27. 假设 A 为事件“产品合格”,B 为“机器工作正常”,现给出以下概率:机器工作正常,生产产品合格的概率为 P(A|B)=0.95;机器不正常工作时,生产产品合格的概率为 P( A | B) =0.1;机器正常工作的概率,即 P(B)=0.9。已知生产了一个不合格品,机器不
9、正常工作的概率,即 P(B | A) 是( )。A.0.90B.0.333C.0.667D.0.05二、填空题1. 数据仓库是面向主题的、( 集成的 )、( 具有特性的 )、稳定的数据集合,用以支持经营管理中的决策制定过程。2. OLAP 的基本多维分析操作有(聚类 )、切片、切块以及( 旋转 )等。3. 多维数据集通常采用 ( 星型 )或雪花型架构,以( 事实 )为中心,连接多个(维表 )。4. 空缺值数据的处理方法主要有使用默认值、(属性平均值)、(同类样本平均值) 和预测最可能的值等。5. 平均互信息等于( 信息)熵减( 条件 )熵,表示不确定性的消除。6. 神经网络的学习方式有 3 种
10、:(监督学习)、( 非监督学习 )和再励学习(强化学习)。7. 聚类分析的数据通常可分为区间标度变量、二元变量、(标称变量 )、(比例标度变量)、序数型以及混合类型等。 8数据立方体是数据的多维建模和表示,由维和事实组成。维就是涉及的(属性 )、而事实是一个具体的( 数据)。9. 数据预处理的主要内容(方法)包括(数据清洗 )、(数据变换)、(数据集成)和数据归约等。10. 关联规则的经典算法包括(Apriori )算法和( FP_Growth )算法 , 其中( FP_Growth)算法的效率更高。11. 非线性回归的模型有:直接换元法、(间接代换法)和( 非线性型)三种。12. 人工神经网
11、络的特点和优势主要表现在具有(自学习 )功能、具有(联系存储 )功能和具有高速寻找优化解的能力三个方面。13. ID3 算法只能对描述属性为(离散)型属性的数据集构造决策树。 14.按照对应的数据类型,Web 挖掘可分为内容挖掘、()和()。15.BP 神经网络由( 输入)、( 输出)以及一或多个隐含结点组成。三、判断题1. 数据挖掘的目标不在于数据采集策略,而在于对于已经存在的数据进行模式的 发掘。(对)2. 模式为对数据集的全局性总结,它对整个测量空间的每一点做出描述;模型则对变量变化空间的一个有限区域做出描述。(错)3. 数据仓库中间层 OLAP 服务器只能采用关系型 OLAP。(错)4
12、. 特征提取技术并不依赖于特定的领域。(错)5. 定量属性可以是整数值或者是连续值。(对)6. Web 数据挖掘是通过数据库仲的一些属性来预测另一个属性 ,它在验证用户提出的假设过程中提取信息。(错)7. 贝叶斯法是一种在已知后验概率与类条件概率的情况下的模式分类方法,待分样本的分类结果取决于各类域中样本的全体。(错)8. 给定由两次运行 K 均值产生的两个不同的簇集,误差的平方和最大的那个应该被视为较优。(错)。9. 如果规则不满足置信度阈值,则形成的规则一定也不满足置信度阈值,其中是 X 的子集。(对)10. 分类和回归都可用于预测,分类的输出是离散的类别值,而回归的输出是连续 数值。(对
13、)11. 如果一个对象不强属于任何簇,那么该对象是基于聚类的离群点。 (对)12. K 均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。(错)13. 数据挖掘的主要任务是从数据中发现潜在的规则,从而能更好的完成描述数据、预测数据等任务。( 对)14.离散属性总是具有有限个值。(错)15. 用于分类的离散化方法之间的根本区别在于是否使用类信息。(对)16. 特征提取技术并不依赖于特定的领域。(错)17.定量属性可以是整数值或者是连续值。(对)18. Web 数据挖掘是通过数据库仲的一些属性来预测另一个属性,它在验证用户提出的假设过程中提取信息。(错)19. 关联规则挖掘过程
14、是发现满足最小支持度的所有项集代表的规则。(错)20. 利用先验原理可以帮助减少频繁项集产生时需要探查的候选项个数。(对)21. 具有较高的支持度的项集具有较高的置信度。(错)22. 聚类(clustering)是这样的过程:它找出描述并区分数据类或概念的模型(或函数),以便能够使用模型预测类标记未知的对象类。(错)23. 分类和回归都可用于预测,分类的输出是离散的类别值,而回归的输出是连续数值。(对)四、简答题1. 设某事务项集构成如表 1 所示,填空完成粗体字部分支持度和置信度的计算,保留 1 位小数。表 1事务 ID项集L2支持度%规则置信度%T1A,DA,B33.3A=B50T2D,E
15、A,C33.3C=A60T3A,C,EA,D44.4A=D66.7T4A,B,D,EB,D33.3B=D75T5A,B,CC,D33.3C=D60T6A,B,DD,E33.3D=E42.9T7A,C,DT8C,D,ET9B,C,D2. 写出非对称二元变量相异度计算公式(即 jaccard 系数),并计算表 2 中各对象间的相异度。测试项目 test- test- test- test- test- test- 对 象123456OBJ1 Y N P N N N OBJ2 Y N P N P N OBJ3 N Y N Y N N表 2解:Jaccard 系数公式可描述为非对称二元相异度=取值不同
16、的同位属性数 /(单个元素的属性位数-同取 0 的位r + s数)。d (i, j) =q + r + s,其中 r 表示对象 i 取值为 1,对象 j 取值为 0;s 表示对象 i 取 0 值,对象 j 取 1 值,q 表示对象 i 和 j 同取 1 值。d (OBJ1,OBJ 2) =0 + 1= 1 = 0.332 + 0 + 13d (OBJ1,OBJ 3) =2 + 2= 4 = 10 + 2 + 24d (OBJ 2,OBJ 3) =3 + 2= 5 = 10 + 3 + 253.给定两个对象,分别用元组(22,1,42,10)和(20,0,36,8)表示(a)计算两个对象之间的欧
17、几里德的距离;(b) 计算两个对象之间的曼哈坦距离;(c) 计算两个对象间的明考斯基距离,q3。解:(20 - 22)2 + (0 -1)2 + (36 - 42)2 + (8 -10)2(a) 欧几里德距离:d (i, j) =;(b) 曼哈坦距离:d (i, j) = 20 - 22 + 0 -1 + 36 - 42 + 8 -10 = 11(c) 明考斯基距离,q=3。= 5 ;3 20 - 22 3 + 0 - 13 + 36 - 42 3 + 8 - 10 3d (i, j) =五、分析题= 4.327 。1. 已知某事务数据库如表 3 所示,请采用 FP-Growth 算法绘制出
18、FP-tree,要求画出绘制过程。表 3:事务数据库TID项目列表T1I1,I2,I5T2I2,I3T3I2,I4T4I1,I2,I4T5I1,I4,I5T6I2,I3T7I3,I4T8I1,I2,I3,I5解:T9I1,I2,I3图:FP-tree2. 给定表4 所示的训练数据,数据样本属性 age,income,student 和credit_rating描述。类标号属性buys_computer 具有两个不同值(即Yes,No)。给定一个没有类标号的数据样本X=(age=”=30”,income=”medium”,student=”yes”, credit_rating=”fair”),
19、使用朴素贝叶斯分类预测这个数据样本的类标号。(10分)表 4数据库训练数据元组RIDageincomestudentCredit_ratingClass:buys_computer1=30highnofairNo240mediumnofairYes540lowyesfairYesRIDageincomestudentCredit_ratingClass:buys_computer640lowyesexcellentNo73140lowyesexcellentYes8=30mediumnofairNo940mediumyesfairYes1140mediumnoexcellentNo解:(1)
20、每个类的先验概率P(buys_computer=”Yes”)=9/14 P(buys_computer =”No”)=5/14(2) 为计算 P(X/Ci),i=1,2,计算下面的条件概率: P(age=”30”| buys_computer =”Yes”)=2/9 P(age=”30”| buys_computer =”No”)=3/5 P(income=”medium”| buys_computer =”Yes”)=4/9 P(income=”medium”| buys_computer =”No”)=2/5 P(student=”yes”| buys_computer =”Yes”)=6
21、/9 P(student=”yes”| buys_computer =”No”)=1/5 P(credit_rating=”fair”| buys_computer =”Yes”)=6/9 P(credit_rating=”fair”| buys_computer =”No”)=2/5(3) 总结:使用以上概率,可以得到:P(X| buys_computer =”yes”)=(2/9)*(4/9)*(6/9)*(6/9)=0.044 P(X| buys_computer =”No”)=(3/5)*(2/5)*(1/5)*(2/5)=0.019P(X| buys_computer =”yes”)P(buys_computer =”yes”)=0.044*(9/14)=0.028 P(X| buys_computer =”No”) P(buys_computer =”No”)=0.019*(5/14)=0.007 因此,对于样本 X,朴素贝叶斯分类预测 buys_computer =”Yes”。
限制150内