《深度学习》课后习题,,,,10.docx
《《深度学习》课后习题,,,,10.docx》由会员分享,可在线阅读,更多相关《《深度学习》课后习题,,,,10.docx(10页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、深度学习课后习题,10深度学习课后习题 逻辑回来模型与神经网络 - 逻辑回来模型与神经网络 - 深度学习 1.机器学习中模型的训练误差和测试误差是一样的。* A .对 B .错 正确答案:B 2.机器学习中选择的模型越困难越好。* A .对 B .错 正确答案:B 3.解决模型过拟合问题的一个方法是正则化。* A .对 B .错 正确答案:A 4.模型在训练阶段的效果不太好称之为欠拟合。* A .对 B .错 正确答案:A 5.假如模型的误差来自于偏差较大,可以采纳以下措施解决。* A .给数据增加更多的特征 B .设计更困难的模型 C .增加更多的数据 D .运用正则化 正确答案:A,B 6
2、.假如模型的误差来自于偏差较大,可以采纳以下措施解决* A .给数据增加更多的特征 B .设计更困难的模型 C .增加更多的数据 D .运用正则化 正确答案:A,B 深度学习概述 - 深度学习概述 - 深度学习 1.一个神经元的作用相当于一个逻辑回来模型。* A .对 B .错 正确答案:A 2.神经网络可以看成由多个逻辑回来模型叠加而成。* A .对 B .错 正确答案:A 3.神经网络的参数由全部神经元连接的权重和偏差组成。* A .对 B .错 正确答案:A 4.一个结构确定的神经网络对应一组函数集合,而该神经网络的参数确定后就只对应一个函数。* A .对B .错 正确答案:A 5.深度
3、神经网络的深度一般是网络隐藏层的数量。* A .对 B .错 正确答案:A 6.神经网络从计算上可以看成矩阵运算和非线性运算的多次叠加而组成的复合函数,且网络叠加的层次可看成复合函数的嵌套深度。* A .对 B .错 正确答案:A 7.神经网络的层次和每层神经元的数量可以通过以下哪些方法确定?* A .可随意设定 B .可人为进行设计 C .可通过进化算法学习出来 D .可通过强化算法学习出来 正确答案:B,C,D 8.深度学习兴起的标记性事务包括。* A .Alpha Go 在围棋上击败李世石 B .在图像识别领域的精确率超过人类 C .语音识别达到人类的水平 D .深蓝在国际象棋上击败卡斯
4、帕罗夫 正确答案:A,B,C 梯度下降与反向传播 - 梯度下降与反向传播 - 深度学习 1.随机梯度下降运行速度要比梯度下降慢。* A .对 B .错 正确答案:B 2.特征缩放(feature scaling)目的是使得不同的特征有相同的比例。* A .对 B .错 正确答案:A 3.反向传播算法的提出是为了解决深度神经网络中梯度计算的效率问题。* A .对 B .错 正确答案:A 4.反向传播算法由前向传递,反向传递,两个阶段构成。* A .对 B .错 正确答案:A 5.在反向传播算法中,反向传递过程可以看成一个没有激活函数的反向的神经网络。* A .对 B .错 正确答案:B 6.在深
5、度学习中采纳梯度下降方法往往达不到最优解,而是在以下哪些状况下停止了。* A .鞍点B .局部极值点 C .高原(plateau)点 D .早停点 正确答案:A,B,C,D 7.随机梯度下降相对于梯度下降,损失函数会呈现较强的抖动。* A .对 B .错 正确答案:A 深度学习编程 - 深度学习编程 - 深度学习 1.基于 Keras 实现神经网络须要首先创建模型对象。* A .对 B .错 正确答案:A 2.在 Keras 模型中每添加一个网络层都须要设置输入维度和输出维度。* A .对 B .错 正确答案:B 3.在 Keras 中可选的优化方法有哪些?* A .SGD B .RMSpro
6、p C .Adagrad D .Adadelta E .Adam F .Adamax G .Nadam 正确答案:,A,B,C,D,E 深度学习训练技巧 - 深度学习训练技巧 - 深度学习 1.模型在测试集上效果不好,可以认为模型过拟合了。* A .对 B .错 正确答案:B 2.采纳 sigmoid 函数作为激活函数的深层次网络出现梯度消逝的缘由是。* A .靠近输出层的网络参数的梯度较大,而靠近输入层的网络参数梯度较小; B .靠近输出层的网络参数改变较快,而靠近输入层的网络参数改变较慢 C .当靠近输出层的网络参数收敛时,靠近输入层的网络参数仍旧是随机的值 D .sigmoid 函数有将
7、较大的输入信号转换为较小的输出信号的特性 正确答案:A,B,C,D 3.在深度神经网络中 ReLu 函数取代 sigmoid 函数作为激活函数的缘由是?* A .计算速度较快 B .有生物学基础 C .可以看成无限多个有不同偏差的 sigmoid 函数的叠加 D .有效地减缓了梯度消逝问题 正确答案:A,B,C,D 4.以 ReLu 函数为激活函数的深度神经网络可以看成由已激活的神经元组成的比原网络要瘦的线性神经网络,因此以 ReLu 函数为激活函数的深度神经网络只能拟合线性函数。5-1* A .对B .错 正确答案:B 5.ReLu 函数的变种包括* A .Leaky Relu B .Par
8、ametric Relu C .Tanh D .Maxout 正确答案:A,B,D 6.RMSProp 梯度优化算法是在学习率的基础上除以历史梯度的均方根误差,其中历史梯度会以肯定的比率衰减,并且越早的梯度衰减越快。5-1* A .对 B .错 正确答案:A 7.基于动量(momentum)的梯度优化方法是指损失函数的优化方向不仅要考虑梯度而且要考虑过去的优化方向。5-1* A .对 B .错 正确答案:A 8.Adam 优化方法结合以下哪些优化方法* A .RMSProp B .Adagrad C .Momentum D .Vanilla Gradient Descent 正确答案:A,C
9、9.以下哪种方法有可能解决模型在测试集上效果不好的问题。* A .Early Stopping B .Regulization C .Dropout D .Adaptive Learning Rate 正确答案:A,B,C 10.L2 正则项的效果是使得参数相对偏小。* A .对 B .错 正确答案:A 11.L1 正则项的效果是使得参数比较稀疏,即 0 的个数较多。* A .对 B .错 正确答案:A 12.Dropout 以肯定的概率关闭掉神经元,从而变更网络的结构。* A .对 B .错 正确答案:A 13.运用 Dropout 方法在训练阶段以 p 的概率关闭神经元的话,在测试阶段则须
10、要将权重乘以 1-p。* A .对 B .错 正确答案:A14.Dropout 方法可看成一种集成学习方法。* A .对 B .错 正确答案:A 卷积神经网络 - 卷积神经网络 - 深度学习 1.CNN 图像识别设计所考虑的三个准则是。* A .图像中存在远小于整个图像大小的模式 B .一个模式在不同图像中可能位于不同的位置 C .变更图像的辨别率不会影响对图像中物体的识别 D .不采纳全连接可以削减网络参数 正确答案:A,B,C 2.由 CNN 构成的分类模型中一般包含如下网络层。* A .全连接层 B .拉直层 C .池化层 D .卷积层 正确答案:A,B,C,D 3.CNN 中池化层所起
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度学习 深度 学习 课后 习题 10
限制150内