自然语言技术N1考试复习题库(浓缩300题).docx
自然语言技术N1考试复习题库(浓缩300题)一、单选题1 . Relu和Tanh相比有什么不同的地方A、输出的值域不同B、Relu可以做非线性变换而Tanh不可以C、Relu是激活函数但是Tanh不是激活函数D、都不可以做线性变换答案:A2 .以下四个选项中,关于随机森林和GBDT说法正确的是A、都是由多棵树组成,最终的结果都是由多棵树一起决定。B、RF和GBDT在使用CART树时,只能做回归不能做分类。C、RF和GBDT在使用CART树时,只能做分类不能做回归。D、不确定答案:A3 .通过getTreeDepth可以获取决策树中的什么A、获取决策树叶子节点的个数B、获取决策树的层数C、绘制节点D、标注有向边属性答案:B4 .下列几个选项中关于GBDT,说法错误的是B、Boost i ngC、Stack i ngD、以上都正确答案:C33 .怎么去理解模型当中的过拟合现象A、指的就是样本该学习到的特征没有学习到,导致了曲线拟合数据的时候,效 果不好。B、指的肯定就是说,这条曲线,过分的去描述现有的数据特征了。C、指得就是说这个曲线能不能去很好的描述现有的数据。D、欠拟合指的就是在训练和测试数据上的表现都不好答案:B34 . KNearestNeighbors属于以下哪个算法的全称A、线性回归B、逻辑回归C、KNND、 K-means答案:C35 .以下几个关于EM算法的说法,正确的是A、传统EM算法对初始值不敏感B、EM算法不能应用到HMM的求解中C、不确定D、传统EM算法对初始值敏感答案:D36 .以下四个选项中代表的随机森林缩写的是哪个?A、RFB、 GBDTC% XGBoostD、 LightGBM答案:A37 .为什么会提出LightGBM,最主要是什么原因A、并无实际的意义B、为了解决GBDT的并行问题C、为 了改进 XGBoostD、为了解决GBDT在大数据上遇到的问题答案:D38 . RandomForest说的是以下哪个选项A、随机森林B、决策树C、聚类D、逻辑回归答案:A39 .高斯混合模型与K均值算法的相同点有哪些A、都是可用于分类的算法B、都是可用于聚类的算法C'都是可用于回归的算法D、都是可用于降维的算法答案:B40 .什么时候可以选取KNN算法A、当需要使用分类算法,且数据比较大的时候就可以尝试使用KNN算法进行分 类了。B、当需要使用聚类算法,且数据比较大的时候就可以尝试使用KNN算法进行分 类了。C、当需要使用降维算法,且数据比较大的时候就可以尝试使用KNN算法进行分 类了。D、不能确定答案:A41 .GBDT属于集成学习,因此它拥有哪些优点A、采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自 动发现特征间的高阶关系。B、GBDT在高维稀疏的数据集上,表现不如支持向量机或者神经网络。C、GBDT在处理文本分类特征问题上,相对其他模型的优势不如它在处理数值特 征时明显。D、训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训 练速度。答案:A42 .精确率是怎么计算的?A、真正正确的占所有预测为正的比例。B、真正正确的占所有实际为正的比例。C、错误的的占所有预测为正的比例。D、错误的的占所有实际为正的比例。答案:A43 . KNN算法的肘部法则中,在k=10处是个拐点,那么k的最佳值应该是多少A、3B、10C、20D、30答案:B44 .在贝叶斯统计中,如果后验分布与先验分布属于同类,则被称为什么A、二项分布B、多项分布C、共聊分布D、Bete分布答案:C45 .如果测试数据中有N (非常大)的观测值,则1-NN将花费多少时间?A、N*DB、 N*D*2C、 (N*D) /2D、这些都不是答案:A46. SVM算法的最小时间复杂度是0 (M ),基于此,以下哪种规格的数据集并不适该算法?A、大数据集B、小数据集C、中等数据集D、不受数据集大小影响答案:A47. 哪种数据类型数据类型可以看作关系型数据库的一张表A、半结构化数据B、非结构化数据C、结构化数据D、不确定答案:C48. 为模型加上正则项,可以很好的防止什么?A、过拟合B、欠拟合C、完美拟合D、不确定答案:A49. 如何理解想“回归”A、通过数据使预测回归到真实值上B、通过数据做分类C、通过数据做缩小维度D、通过数据使相似的数据聚到一块答案:A50. LDA属于一个什么模型A、语言模型B、词袋子模型C、预训练模型D、不确定答案:B51. Sigmoid激活函数求导之后,最大值为多少A、1B、0.5C、0. 25D、0.3答案:C52. XGBoost和GBDT都是运用了什么思想A、Boost i ngB、 BaggingC StackingD、以上都正确53. GBDT (Grad i entBoost i ngDec i s i onTree)使用到的是什么思想A、未剪枝的决策树B、随机森林C、不加正则的线性回归D、不加正则的逻辑回归答案:B54. Tanh激活函数活跃在各大算法当中,当Tanh求导了之后,它的取值范围是多少A、 -1,1B、0, 2C、0,1D、0 或 1答案:A55 .在k-NN中,增加/减少k值会发生什么?A、K值越大,边界越光滑B、随着K值的减小,边界变得更平滑C、边界的光滑性与K值无关D、这些都不是答案:A56 . sigmoid输出的值域可以代表什么A、概率B、代价C学习率D、权重w答案:A57 .加入正则项,可以解决处理以下哪个问题A、正常拟合B、过拟合C、欠拟合D、不确定答案:B58 .以下四个描述中,哪个选项正确的描述了 XGBoost的基本核心思想A、训练出来一个一次函数图像去描述数据B、训练出来一个二次函数图像去描述数据C、不断地添加树,不断地进行特征分裂来生长一棵树,每次添加一个树,其实 是学习一个新函数f(x),去拟合上次预测的残差。D、不确定答案:C59 .GBDT使用的是什么思想A、 BaggingB、Boost i ngc、逻辑回归D、线性回归60.SVM中,若C趋于无穷,以下哪种说法正确?A、数据仍可正确分类B、数据无法正确分类C、不确定D、以上都不对答案:A61 . ID3, C4.5,他们有什么,相同的地方?A、将信息增益比作为了选择特征的标准B、将信息增益作为了选择特征的标准C、将基尼系数作为了选择特征的标准D、都属于决策树算法答案:D62 .在编写模型或者训练模型的时候,如果模型过于复杂的话,会出现什么情况A、正常拟合B、过拟合C、欠拟合D、不确定答案:B63 . LDA模型可以做什么事情A、将文档集中每篇文档的主题以概率分布的形式给出,从而通过分析一些文档 抽取出它们的主题(分布)出来后,便可以根据主题(分布)进行主题聚类或文 本分类B、可以找出来最优的分类超平面C、可以找到因变量和自变量之间的一次关系D、不确定答案:A64 .以下哪个操作可以停止树的循环A、加入L2正则B、加入L1正则C、设置树的最大深度D、以上都可以答案:C65.基于直方图的稀疏特征优化多线程优化。是以下哪个框架做的优化A、 LightGBMB、 XGBoostC、随机森林D、 GBDT答案:A66.从工程的角度出发去看,随机森林有什么优点A、随机森林的每棵树训练是相互独立的,可以串行生成,调高训练的效率B、随机森林的每棵树训练是相互独立的,可以并行生成,调高训练的效率C、随机森林的每棵树训练是相互独立的,可以并行生成,降低训练的效率D、不确定A、GBDT是深度学习算法B、传统的GBDT采用CART作为基分类器C、传统的GBDT在每轮迭代时使用全部的数据D、没有对确实值进行处理答案:A5 .零均值归一化会将原始数据的标准差映射为多少?A、0B、1C、2D、3答案:B6 .小概率事件怎么理解?以下选项当中描述正确的是?A、发生可能性不大的事件B、发生可能性大的事件C、发生可能性不去确定的事件D、以上都正确答案:A7 .串行地训练一系列前后依赖的同类模型,即后一个模型用来对前一个模型的输出结果进行纠正属于什么思想A、 BaggingB、Boost i ngC、Stack i ng67 . 1-NN, 2-NN, 3-NN所花费的时间之间是什么关系。A、 1-NN>2-NN>3-NNB、 1-NN<2-NN<3-NNC、 1-NN2-NN3-NND、这些都不是答案:C68 .以下四个选项中哪个是激活函数A、L1B、Re I uC、L2D、MSE答案:B69 .马尔科夫可以用一个什么图去进行表示A、无向图B、有无向图C、有向图D、不确定答案:A70 .主成分分析法的简写是哪个Ax PCAB、LDAD、 K-Means 答案:A71 .如果适当的增加了模型的复杂度会达到什么效果A、防止过拟合B、防止欠拟合C、防止完美拟合D、不确定答案:B72 .以下哪些算法是聚类算法A、ID3B、C4. 5C、 K-MeansD、SVM答案:C73 .在同质集成(系统中个体学习器的类型相同)中,个体学习器又被称为A、基学习器B、组建学习C、不能判断D、以上都正确答案:A74 .朴素贝叶斯分类是基于。假设。A、条件独立B、条件不独立C、联合概率D、不确定答案:A75 . LDA中的五个分布其中的二项分布,是一个什么分布A、离散的随机分布B、连续的随机分布C、连续的分布D、不确定答案:A76 . KNN算法的分类原理是什么A、利用自变量和因变量之间的一次函数关系B、需要分类的样本选择特征空间上和自己最邻近的K个样本_xOOO1_把已经分类 或需要分类的样本在定义的特征空间上表征需要分类的样本的类别就是这K个 样本中最多的那个类别C、利用自变量和因变量之间的对数关系D、找出最好的分类超平面答案:B77 .文本,图像,视频,音频这样的数据数据属于哪种类型的数据A、结构化数据B、半结构化数据C、非结构化数据D、不确定答案:C78 . Bagging中的采样方法是什么样的A、有放回的随机抽样B、无放回的随机抽样C、有放回的顺序抽样D、无放回的顺序抽样答案:A79 . sigmoid激活函数来说,它输出值的范围是_?A、0, 1B、0,2C、0,3D、-1,1答案:A80 . K-Means中的K应该如何去选择A、贪心法则B、马尔科夫C、肘部法则D、概率图答案:C81 .激活函数有广泛的应用,下列选项中,对于激活函数存在意义的理解,正确 的是?A、进行非线性变换,增强表达能力B、进行线性变换,增强表达能力C、进行线性变换,减少表达能力D、进行非线性变换,减少表达能力答案:A82 .带有深度限制的按叶子生长(leaf-wise)算法,主要做了什么事情A、增加了一个最大深度的限制,在保证高效率的同时防止过拟合B、先把连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图C、不确定D、以上都正确答案:A83 .以下哪种情况下树会容易发生了过拟合的现象A、加入L2正则B、加入L1正则C、设置树的最大深度D、没有设置树的最大深度答案:D84 .关于k-NN算法的应用,以下说法正确的是?A、可用于分类B、可用于回归C、可用于分类和回归D、聚类 答案:c85 .以下四个算法当中,哪个算法和逻辑回归一样都可以做分类A、线性回归B、岭回归C、 K-meansD、SVM答案:D86 .以下四个选项当中,关于带有深度限制的按叶子生长(leaf-wise)算法,主要 做了什么事情,描述正确的是?A、增加了一个最大深度的限制,在保证高效率的同时防止过拟合B、先把连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图C、不确定D、以上都正确答案:A87 .以下四个说法中,哪个是GBDT的优点A、在分布稠密的数据集上,泛化能力和表达能力都很好;B、GBDT在高维稀疏的数据集上表现不佳;C、训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训 练速度。D、不确定答案:A88 . sigmoid作为常见的激活函数,有着非线性变化的作用,它的曲线是什么样 的A、直线B、A型曲线C、C型曲线D、S型曲线答案:D89 .并行地训练一系列各自独立的不同类模型,然后通过训练一个元模型(meta- model)来将各个模型输出结果进行结合,是什么思想A、 BaggingB、Boost i ngCx StackingD、以上都正确答案:c90 .当EM在做完计算期望之后,下一步应该做什么事情?A、最大化B、求代价C、计算期望D、不确定答案:A91 .下列哪个不是体现出的随机森林的随机性A、样本的随机性(Bagging):在Bagging时,随机选择样本B、特征的随机性(Randomsubspace)C随机特征组合(Randombination)D、随机代价函数答案:D92 .信息病又叫什么?A、信息增益B、信息增益比C、基尼系数D、香农嫡答案:D93.关于Re I u激活函数说法正确的是A、经过Reiu变换之后的取值在0,1之间B、正半区是本身,负半区全为0C、经过Reiu变换之后的取值在7,1之间D、经过Re lu变换之后的取值在-8,+8之间答案:B94 .以下四个选项当中,哪个不属于抽象模型的是OA、概率统计模型B、比例模型C、符号模型D、流程图 答案:B95 . Re I u在负半区求导之后值为多少A、0B、1C、2D、-1答案:A96 .虽然随机森林和GBDT都属于集成学习,他们有什么不同之处A、都是由多棵树组成,最终的结果都是由多棵树一起决定。B、组成随机森林的树可以并行生成,而GBDT是串行生成C、RF和GBDT在使用CART树时,可以是分类树或者回归树。D、不确定答案:B97 .如果对数据进行了归一化的处理,可以达到什么样的效果A、将所有的特征都统一到一个大致相同的数值区间内B、并无实际的意义C、不确定D、可以对数据进行等比例的扩大答案:A98 .下列算法中,训练数据集是无label的数据,是杂乱无章的,经过变换后变得有序,先无序,后有序是哪个算算法A、SVMB、逻辑回归C、线性回归D、聚类答案:D99 .在下列四个选项中,正确的找出激活函数A、L1B、Re IuC、L2D、MSE答案:B100 .训练了一个线性SVM,这个模型出现了欠拟合现象。应该采取下列什么措 施?A、增加数据点B、减少数据点C、增加特征D、减少特征答案:C101 .贝叶斯判别规则是什么A、就是判断自变量和因变量之间的关系B、把特征向量X落入某类集群wi的条件概率平P (wi/X)当成分类判别函数, 把X落入某集群的条件概率最大的类为X的分类这种判别规则叫贝叶斯判别规则C、不确定D、就是通过选择最优的超平面去进行最好的分类超平面D以上都正确答案:B8 .以下几个算法中哪个不容易陷入过拟合A、未剪枝的决策树B、随机森林C、不加正则的线性回归D、不加正则的逻辑回归答案:B9 .口8968凶是实现68口1算法的很好的框架,在下列四个选项中,哪个对于LightGBM的优势描述是正确的A、更慢的训练速度B、更低的内存消耗C、更差的准确率D、不支持分布式答案:B10 .高维组合特征的处理,具体是怎么做的A、在特征工程中经常会把一阶离散特征两两组合B、在特征工程中经常会把一阶离散特征打散C、删除一部分离散特征D、不确定答案:A11 . XGBoost中对树上叶子节点的得分w的L2模平方,有什么目的答案:B102 .当我们选择K-NN中的K时,可以通过下边哪种方式去选择?A、肘部法则B、代价函数C、不确定D、以上都可以答案:A103 .独热编码可以完成什么事情A、对数据进行向量化B、对数据进行特征缩放C、对特征进行归一化处理D、消除数据特征之间的量纲影响答案:A104 . EM算法在高斯混合模型中的应用中的E步骤主要做了什么事情A、确定Q函数B、明确隐变量,写出完全数据的对数似然函数C、求Q函数对theta的极大值,即求新一轮迭代的模型参数D、不确定答案:A105 .下列关于GBDT的说法正确的是哪个A、GBDT是机器学习的算法B、GBDT是深度学习的算法C' GBDT属于特征工程部分D、以上都正确答案:A106 .每个算法都会有缺点,对于集成学习GBDT的缺点是什么A、预测阶段的计算速度快,树与树之间可并行化计算。B、GBDT在高维稀疏的数据集上,表现不如支持向量机或者神经网络。C、在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggl e的众多竞赛中,经常名列榜首。D、采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自 动发现特征间的高阶关系。答案:B107 . K-Means最终得到的结果是什么A、将已经分类好的数据,重新进行划分类别B、未标记的数据聚类成不同的组C、不确定D、将已经标记好的数据打散成无类别形式答案:B108 .决策树有可能会造成什么缺点A、可能会对缺失值很敏感B、无法处理不相关的数据C、可能产生过渡匹配问题D、计算的复杂度很高 答案:C109 .关于贝叶斯判别规则,下列选项中描述正确的是?A、就是判断自变量和因变量之间的关系B、把特征向量X落入某类集群wi的条件概率平P (wi/X)当成分类判别函数, 把X落入某集群的条件概率最大的类为X的分类这种判别规则叫贝叶斯判别规则C、不确定D、就是通过选择最优的超平面去进行最好的分类超平面答案:B110 .什么是特征工程,如何去理解特征工程A、特征工程就是对原始的数据做一系列的处理B、特征工程就是使用各种算法实现结果C、特征工程就是聚类和降维D、特征工程就是回归和分类答案:A111 . SVM算法的性能取决于:A、核函数的选择B、核函数的参数C、软间隔参数CD、以上所有答案:D112.SVM其中有个参数C,这个参数代表的是什么意思?A、交叉验证的次数B、用到的核函数C、在分类准确性和模型复杂度之间的权衡D、以上都不对答案:C113 . K-Means中K代表的是什么意思A、学习率B、聚类中心C、代价D、不确定答案:B114 . NLP中常处理的文本,属于什么样的数据A、结构化数据B、非结构化数据C、半结构化数据D、以上都是答案:B115 .特征的归一化属于以下哪个选项中A、特征工程B、分类C、回归D、聚类116 .以下四个选项中哪个属于决策树A、SVMB、 K-MeansC、PCAD、C4. 5答案:D117 .逻辑回归是如何做分类的,为什么可以做分类A、因为使用了丫=W*X+b的函数表达式B、因为逻辑回归引入了激活函数做了非线性的变换C、因为逻辑回归使用了误差平方和作为目标函数D、因为逻辑处理的都是连续性数据答案:B118 .以下关于梯度下降优化算法的描述,错误的是?A、靠近极值点收敛速度慢B、直线搜索时可能会产生问题C、可能会“之字形”地下降。D、越靠近极值点收敛速度快答案:D119 .以下选项中关于LDA的优点描述说法正确的是A、LDA适合对非高斯分布样本进行降维;B、可以使用类别的先验知识;Cx LDA降维最多降到分类数k-1维;D、LDA可能过度拟合数据。答案:B120 . GBDT (Grad i entBoost i ngDec i s i onTree)的全名叫什么A、随机森林B、梯度提升决策树C、聚类D、逻辑回归答案:B121 .关于损失函数的意义说法正确的是A、损失函数越小,模型鲁棒性越好B、损失函数越小,模型鲁棒性越差C、损失函数越大,模型鲁棒性越好D、不确定答案:A122 . C4. 5相比较于ID3算法,在哪个地方得进行了改变A、将信息增益比作为了选择特征的标准B、将信息增益作为了选择特征的标准C、将基尼系数作为了选择特征的标准D、将信息烯作为了选择特征的标准答案:A123 .如果使用了 Tanh作为激活函数你,那么经过此非线性变换后值的范围为_?A、-1,1B 0, 2C、0,1D、0 或 1答案:A124 .若参数C (costparameter)被设为无穷,下面哪种说法是正确的?A、只要最佳分类超平面存在,它就能将所有数据全部正确分类B、软间隔SVM分类器将正确分类数据C、二者都不对D、不确定答案:A125 .平方损失函数一般用在以下哪个算法中A、逻辑回顾B、线性回归C、SVMD、聚类答案:B126 . LDA的实质是在做一个什么东西A、根据给定的一篇文档,反推其主题B、可以找出来最优的分类超平面C、可以找到因变量和自变量之间的一次关系D、不确定127 .朴素贝叶斯作为常用的方法,它是以()为基础的分类方法。A、概率论B、线性代数C、微积分D、都不是答案:A128 .以下四个任务中,逻辑回归可以做哪个A、数据降维B、垃圾邮件分类C、电影票房预测D、房价预测答案:B129 . sigmoid缺点之一就是非线性变化较慢,可以通过以下哪个激活函数进行改善A、S i gmo i dB、 TanhC Re IuD、不确定答案:c130 . Hi stogram算法的思想是什么A、寻找最优分割面B、寻找因变量和自变量之间的关系C、先把连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图。D、不确定答案:C131 .MSE代表什么意思A、信息炳B、均方误差C、交叉熠D、信息增益答案:B132 .直方图算法中的K可以认为是什么A、代价B、常数C学习率D、不确定答案:B133 .以下四种说法当中,关于GBDT的描述说法正确的有哪些A、GBDT是并行生成B、GBDT则是多棵树累加之和C、GBDT对异常值比较敏感D、GBDT是减少模型的偏差答案:A134 .如果训练完成的模型存在过拟合现象会造成什么影响A、在训练集上的效果很好,但是在测试集上的效果很差B、在训练集上的效果差,在测试集上的效果也差C、在训练集上的效果很好,在测试集上的效果也很好D、在训练集上的效果很差,但是在测试集上的效果很好答案:A135 .线性判别分析LDA的思想是什么A、投影后类内方差最大B、类间方差最小C、投影后类内方差最小D、不确定答案:C136 .下列关于K均值说法,正确的是?A、K均值接收未标记的数据集,然后将数据聚类成不同的组B、通过生成树的形式对,数据集进行分类C、通过自变量和因变量之间的一次函数关系,构建回归模型D、构建一个超平面,将数据在更高维度上,使用超平面更好的划分答案:A137 .随机森林和GBDT有很多相似的地方,以下几个选项中描述它们相同点正确的是哪个?A、组成随机森林的树可以并行生成,而GBDT是串行生成B、随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和C、都是由多棵树组成,最终的结果都是由多棵树一起决定。A、为了避免过拟合B、为了避免欠拟合C、为了增加叶子节点个数D、不确定答案:A12 .以下哪些算法是分类算法Ax DBSCANB、C4. 5Cx K-MeanD、EM答案:B13 .先把连续的浮点特征值离散化成k个整数,构造一个宽度为k的直方图。是 以下哪个算法的优化A、直方图算法算法B、带深度限制的Leaf-wise的叶子生长策略C、不确定D、直接支持类别特征答案:A14 . RNN中常用到Tanh激活函数,它在求导之后的取值范围是多少A、(0, 1)B、 (-1,1)C、 (0,0.5)D RF和GBDT在使用CART树时,只能是分类树答案:C138. XGBoost虽然也是个算法,但是这个算法的本质其实是很么算法A、随机森林B、 GBDTC、线性回归D、逻辑回归答案:B139. sigmoid作为常用的激活函数,它的曲线是什么样子的?A、直线B、A型曲线C、C型曲线D、S型曲线答案:D140. 以下哪种情况会导致SVM算法性能下降?A、数据线性可分B、数据干净、格式整齐C、数据有噪声,有重复值D、不确定答案:C多选题1 .如何去构建一颗决策树A、构建根节点B、构建叶子节点C、选择新特征继续分割D、最终子集都被分到叶子节点上答案:ABCD2 .可以通过以下哪些方式划分数据集A、信息增益B、信息增益比C、代价函数D、极大似然答案:AB3 .以下四个选项中,经典的概率模型有哪些?A、不确定B、古典概型C、几何概型D、以上都正确答案:BC4 .在下列四个选项中,关于GBDT算法描述正确的选项有哪些?A、预测阶段的计算速度快,树与树之间可并行化计算(注意预测时可并行)B、在分布稠密的数据集上,泛化能力和表达能力都很好;C、GBDT在高维稀疏的数据集上表现不佳;D、训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训 练速度。答案:ABCD5 .网络结构分别都有哪些形式,以下选项中正确是?A、星形结构:具有一个中心结点,所有通讯都通过它。B、环形结构:网络结点连成一个封闭的环形。C、总线结构:具有一个共享总线,所有结点挂在上面,又称树形结构D、以上都正确答案:ABCD6 .随机森林中的“随机”体现在什么方面A、随机森林的随机性体现在每棵树的训练样本都是随机的B、模型的代价是随机的C、树中每个节点的分裂属性集合也是随机选择确定的。D、以上都正确答案:AC7 .LightGBM为了更好的实现落地GBDT算法,在以下哪些方向上做了优化?A、带深度限制的Leaf-wise的叶子生长策略B、直方图做差加速直接C、支持类别特征(Categor i cal Feature)D以上不都是答案:ABC8 .逻辑回归在工业中可以有哪些应用A、各种分类场景B、某搜索引擎厂的广告CTR预估基线版是LR。C、某电商搜索排序/广告CTR预估基线版是LR。D、某电商的购物搭配推荐用了大量LR。答案:ABCD9 . SVM在工业中有广泛的应用,以下说法正确的是A、文本分类B、图片分类C、新闻聚类D、以上都对答案:ABCD10 .为什么SVM对缺失某些特征数据敏感?A、VM没有处理缺失值的策略(决策树有)B、特征空间的好坏对SVM的性能很重要C、SVM希望样本在特征空间中线性可分D、以上都正确答案:ABCD11 . GBDT算法中如果按照高维的ID特征做分裂,会出现哪些不好的情况A、子树数量非常多B、计算量会非常大C、训练会非常慢D、以上都正确答案:ABCD12 .以下几个选项中关于逻辑回归优化方法的描述,正确的是?A、梯度下降B、随机梯度下降C、mini随机梯度下降D、以上都正确答案:ABCD13 .以下关于L i ghtGBM对XGBoost的优化说法正确的是As基于Histogram的决策树算法B、带深度限制的Leaf-wise的叶子生长策略C、直方图做差加速直接D、支持类别特征(Categor i ca I Feature)答案:ABCD14 .下列选项中SVM可以调节的参数是?Ax CB、kerne IC、 degreeD、 gamma答案:ABCD15 .在训练模型的阶段,如果说发生了过拟合现象,以下四个选项中,可以通过哪些方式解决A、增加数据量B、减少数据量C、增加迭代次数D、减少迭代次数答案:AD16 .在k-NN中可以使用以下哪个距离度量?A、 ManhattanB、M i nkowsk iC、 TanimotoDv Jaccard答案:ABCD17 .预处理单个特征的时候,通常有哪些操作A、归一化B、离散化C、缺失值处理D、数据变换答案:ABCD18 .决策树有什么特点,以及优点A、计算复杂度低B、输出结果易于理解C、对中间缺失值不过敏D、可以处理不相关的特征19 .概率图模型中的边可以分为哪几种A、有向边B、不确定C、无向边D、以上都正确 答案:AB20 . EM算法在高斯混合模型中的应用包含哪些步骤A、明确隐变量,写出完全数据的对数似然函数。B、EM算法的E步:确定Q函数C、求Q函数对theta的极大值,即求新一轮迭代的模型参数。D、以上都正确 答案:ABCD21 .机器学习中的检验方法有很多种,以下常用的检验方法有哪些?A KS检验B T检验C、F检验D、卡方检睑 答案:ABCD22 .在Histogram算法之上,LightGBM还做了哪些优化A、带深度限制的Leaf-wise的叶子生长策B、直方图做差加速直接C、支持类别特征(Categori cal Feature)D、不确定 答案:ABC23 . Bagging的操作主要分为哪些阶段A、Aggregating阶段,将上一个阶段训练得到的n个基模型组合起来,共同做 决策。在分类任务中,可采用投票法,比如相对多数投票法,将结果预测为得票 最多的类别。而在回归任务中可采用平均法,即将每个基模型预测得到的结果进 行简单平均或加权平均来获得最终的预测结果。B、Boostrap阶段,即采用有放回的采样方式,将训练集分为n个子样本集;并 用基学习器对每组样本分布进行训练,得到n个基模型C、分别采用全部的训练样本来训练n个组件模型,要求这些个体学习器必须异 构的,比如可以分别是线性学习器,SVM,决策树模型和深度学习模型。D、训练一个元模型(meta-model)来将各个组件模型的输出结果进行结合,具体 过程就是将各个学习器在训练集上得到的预测结果作为训练特征和训练集的真 实结果组成新的训练集;然后用这个新组成的训练集来训练一个元模型。这个元 模型可以是线性模型或者树模型。答案:AB24 .以下四个算法中,有哪些算法是属于决策树算法的A、SVMB、ID3C、C4. 5D、 CART25 . LDA中有四个分布分别是哪四个分布A、二项分布B多项分布C、beta分布D、Dirichlet 分布答案:ABCD26 .以下四个关于EM算法的描述,正确的是A、对初始值敏感B、对初始值敏感C、不同的初值可能得到不同的参数估计值D、不能保证找到全局最优值。答案:ABCD27 .在k-NN中,由于维数的存在,很可能过度拟合。你将考虑使用以下哪个选项来解决此问题?A、降维B、特征选择C、不确定D、以上都正确答案:AB28 . LDA中的两个模型指的是哪两个A、 pLSAB、 GBDTC、LDAD、 XGBoost答案:AC29 .以下是针对k-NN算法给出的两条陈述,其中哪一条是真的?A、我们可以借助交叉验证来选择k的最优值B、不能判断C、欧氏距离对每个特征一视同仁D、以上都正确答案:AC30 .在代价函数上加入一个正则项,我们可以使用以下哪种A、L1B、L2C、余弦公式D、正弦公式答案:AB31 . K-NN和K-Means很相像,他们有什么具体的区别A、K-Means是聚类算法,KNN是分类算法。B、KNN需要标记点,因此是有监督的学习,而k-means不是,因此是无监督学 习。C、K均值聚类仅需要一组未标记的点和阈值D、以上都正确D 0 或 1答案:A15 .纵观决策树有哪些优点A、易于理解和解释,决策树可以可视化。B、决策树学习可能创建一个过于复杂的树,并不能很好的预测数据。也就是过 拟合C、决策树可能是不稳定的,因为即使非常小的变异,可能会产生一颗完全不同 的树D、如果某些分类占优势,决策树将会创建一棵有偏差的树答案:A16 .对于k-NN分类器,以下哪个陈述是正确的?A、k值越大,分类精度越好B、k值越小,决策边界越光滑C、决策边界是线性的D、k-NN不需要显式的训练步骤答案:D17 . XGBoost是对某个算法的改进,是以下四个选项中的哪个算法A、 GBDTB、随机森林C、线性回归D、逻辑回归 答案:A32 .为什么SVM要引入核函数?A、将样本从原始空间映射到一个更低维的特征空间B、将样本从原始空间映射到一个更高维的特征空间C、使得样本在高维特征空间内线性不可分。D、使得样本在高维特征空间内线性可分。答案:BD33 .聚类算法可以基于以下哪些选项去划分A、基于划分B、基于层次C、基于密度