logo资料库

深度学习笔试100题.pdf

第1页 / 共35页
第2页 / 共35页
第3页 / 共35页
第4页 / 共35页
第5页 / 共35页
第6页 / 共35页
第7页 / 共35页
第8页 / 共35页
资料共35页,剩余部分请下载后查看
2019/7/16 文章目录: 2_深度学习笔试100题.md https://www.julyedu.com/question/select/kp_id/26 ** 七月在线,笔试练习——深度学习** 1、梯度下降算法的正确步骤是什么? 1.计算预测值和真实值之间的误差 2.重复迭代,直至得到网络权重的最佳值 3.把输入传入网络,得到输出值 4.用随机值初始化权重和偏差 5.对每一个产生误差的神经元,调整相应的(权重)值以减小误差 A、1, 2, 3, 4, 5 B、5, 4, 3, 2, 1 C、3, 2, 1, 5, 4 D、4, 3, 1, 5, 2 答案:D 解析: 2、已知: § 大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。 每一个神经元都有输入、处理函数和输出。 神经元组合起来形成了网络,可以拟合任何函数。 为了得到最佳的神经网络,我们用梯度下降方法不断更新模型 给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型? A、加入更多层,使神经网络的深度增加 B、有维度更高的数据 C、当这是一个图形识别的问题时 D、以上都不正确 答案:A 解析: 更多层意味着网络更深。没有严格的定义多少层的模型才叫深度模型,目前如果有超过2层的 隐层,那么也可以及叫做深度模型。 § 1/35
2019/7/16 2_深度学习笔试100题.md 3、训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力。这么说是 对,还是不对? A、对 B、不对 答案:A 这题选错 解析: 如寒sir所说,训练CNN时,可以进行这些操作。当然也不一定是必须的,只是data augmentation扩充数据后,模型有更多数据训练,泛化能力可能会变强。 § 4、下面哪项操作能实现跟神经网络中Dropout的类似效果? A、Boosting B、Bagging C、Stacking D、Mapping 答案:B 这题选错 解析: Dropout可以认为是一种极端的Bagging,每一个模型都在单独的数据上训练,同时,通过和其 他模型对应参数的共享,从而实现模型参数的高度正则化。 5、下列哪一项在神经网络中引入了非线性? A、随机梯度下降 B、修正线性单元(ReLU) C、卷积函数 D、以上都不正确 答案:B 解析: 修正线性单元是非线性的激活函数。 § § 6、在训练神经网络时,损失函数(loss)在最初的几个epochs时没有下降,可能的原因是? A、学习率(learning rate)太低 B、正则参数太高 2/35
2019/7/16 C、陷入局部最小值 D、以上都有可能 答案:D 解析: 2_深度学习笔试100题.md § 7、下列哪项关于模型能力(model capacity)的描述是正确的?(指神经网络模型能拟合复杂 函数的能力) A、隐藏层层数增加,模型能力增加 B、Dropout的比例增加,模型能力增加 C、学习率增加,模型能力增加 D、都不正确 答案:A 解析: § 8、如果增加多层感知机(Multilayer Perceptron)的隐藏层层数,分类误差便会减小。这种陈 述正确还是错误? A、正确 B、错误 答案:B 解析: 并不总是正确。层数增加可能导致过拟合,从而可能引起错误增加。 § 9、构建一个神经网络,将前一层的输出和它自身作为输入。 下列哪一种架构有反馈连接? A、循环神经网络 B、卷积神经网络 C、限制玻尔兹曼机 D、都不是 答案:A 解析: § 3/35
2019/7/16 2_深度学习笔试100题.md § 10、在感知机中(Perceptron)的任务顺序是什么? 1 随机初始化感知机的权重 2 去到数据集的下一批(batch) 3 如果预测值和输出不一致,则调整权重 4 对一个输入样本,计算输出值 A、1, 2, 3, 4 B、4, 3, 2, 1 C、3, 1, 2, 4 D、1, 4, 3, 2 答案:D 解析: § 11、假设你需要调整超参数来最小化代价函数(cost function),会使用下列哪项技术? A、穷举搜索 B、随机搜索 C、Bayesian优化 D、都可以 答案:D 这题选错,选了C 解析: § 12、在下面哪种情况下,一阶梯度下降不一定正确工作(可能会卡住)? 答案: B 解析: 这是鞍点(Saddle Point)的梯度下降的经典例子。另,本题来源于: https://www.analyticsvidhya.com/blog/2017/01/must-know-questions-deep-learning/ § 13、下图显示了训练过的3层卷积神经网络准确度,与参数数量(特征核的数量)的关系。 从图中趋势可见,如果增加神经网络的宽度,精确度会增加到一个特定阈值后,便开始降低。 4/35
2019/7/16 2_深度学习笔试100题.md 造成这一现象的可能原因是什么? A、即使增加卷积核的数量,只有少部分的核会被用作预测 B、当卷积核数量增加时,神经网络的预测能力(Power)会降低 C、当卷积核数量增加时,导致过拟合 D、以上都不正确 答案:C 解析: 网络规模过大时,就可能学到数据中的噪声,导致过拟合 § 14、假设我们有一个如下图所示的隐藏层。隐藏层在这个网络中起到了一定的降纬作用。假如 现在我们用另一种维度下降的方法,比如说主成分分析法(PCA)来替代这个隐藏层。 那么,这两者的输出效果是一样的吗? A、是 B、否 答案: B 解析: PCA 提取的是数据分布方差比较大的方向,隐藏层可以提取有预测能力的特征 § 15、下列哪个函数不可以做激活函数? A、y = tanh(x) B、y = sin(x) C、y = max(x,0) D、y = 2x 答案是:D 这题选错啦,选择了 B (激活函数非线性) 解析: 线性函数不能作为激活函数。 § 16、下列哪个神经网络结构会发生权重共享? A、卷积神经网络 B、循环神经网络 5/35
2019/7/16 C、全连接神经网络 D、选项A和B 答案是:D 解析: 2_深度学习笔试100题.md § 17、批规范化(Batch Normalization)的好处都有啥? A、让每一层的输入的范围都大致固定 B、它将权重的归一化平均值和标准差 C、它是一种非常有效的反向传播(BP)方法 D、这些均不是 答案是:A 解析: § 18、在一个神经网络中,下面哪种方法可以用来处理过拟合? A、Dropout B、分批归一化(Batch Normalization) C、正则化(regularization) D、都可以 答案是:D 解析: 对于选项A, Dropout 可以在训练过程中适度地删减某些神经元, 借此可以减小过拟合的风险. 对于选项B, 分批归一化处理过拟合的原理,是因为同一个数据在不同批中被归一化后的值会有 差别,相当于做了data augmentatio。 对于选项C,正则化(regularization)的加入,本身就是为了防止过拟合而做的操作. 因此答案是D § 19、如果我们用了一个过大的学习速率会发生什么? A、神经网络会收敛 B、不好说 C、都不对 D、神经网络不会收敛 6/35
2019/7/16 2_深度学习笔试100题.md 答案是:D 这题选错啦,选择了 B 解析: 可能是我考虑的有些极端啦,大部分情况下,会出现其在震荡,梯度长时间不更新,就是因为 学习率较大导致的 § 20、下图所示的网络用于训练识别字符H和T,如下所示 答案是:D 解析: 不知道神经网络的权重和偏差是什么,则无法判定它将会给出什么样的输出。 § 21、神经网络模型(Neural Network)因受人类大脑的启发而得名 enter description here 神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对输入进行处理后给出一 个输出,如下图所示。请问下列关于神经元的描述中,哪一项是正确的? 神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对输入进行处理后给出一 个输出,如下图所示。请问下列关于神经元的描述中,哪一项是正确的? A、每个神经元可以有一个输入和一个输出 B、每个神经元可以有多个输入和一个输出 C、每个神经元可以有一个输入和多个输出 D、每个神经元可以有多个输入和多个输出 E、上述都正确 正确答案是:E,的选择是: B 解析: 每个神经元可以有一个或多个输入,和一个或多个输出。 § 22、在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元 准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢? 7/35
2019/7/16 2_深度学习笔试100题.md A、搜索每个可能的权重和偏差组合,直到得到最佳值 B、赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重 C、随机赋值,听天由命 D、以上都不正确的 正确答案是: B,您的选择是: B 解析: 选项B是对梯度下降的描述。 § 23、基于二次准则函数的H-K算法较之于感知器算法的优点是()? A、计算量小 B、可以判别问题是否线性可分 C、其解完全适用于非线性可分的情况 正确答案是: B,您的选择是:A 解析: HK算法思想很朴实,就是在最小均方误差准则下求得权矢量. 他相对于感知器算法的优点在于,他适用于线性可分和非线性可分得情况,对于线性可分的情况, 给出最优权矢量,对于非线性可分得情况,能够判别出来,以退出迭代过程。 来源:@刘炫320,链接:http://blog.csdn.net/column/details/16442.html § 24、输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3, padding 1,stride 1)之后,输出特征图大小为 A、95 B、96 C、97 D、98 正确答案是:C,您的选择是:C 解析: 首先我们应该知道卷积或者池化后大小的计算公式,其中,padding指的是向外扩展的边缘大 小,而stride则是步长,即每次移动的长度。 这样一来就容易多了,首先长宽一般大,所以我们只需要计算一个维度即可,这样,经过第一 次卷积后的大小为: 本题 (200-5+2 * 1)/2+1 为99.5,取99, 向下取整 8/35
分享到:
收藏