课堂互动
¶作者:欧新宇(Xinyu OU)
最后更新:2021-07-22
深度前馈神经网络的问题@1.1-1.3
¶1. 传统深度前馈神经网络(DNN或MLP)无法被广泛应用,其最主要的原因是:( )
A. 神经网络节点过多,导致计算复杂性太高
B. 由于参数过多,容易导致欠拟合问题
C. 无法直接处理高维度的样本,例如基于时间序列音频数据
D. 在处理大数据时,需要人为提取原始数据的特征作为输入,这个尺度很难掌握。
2. 若存在一幅 $300 \times 400$ 的彩色图像,且其后的隐层神经元数量与输入层相同,那么,在输入层和第一层之间的参数个数为:( )。
A. $300 \times 400 = 120000$
B. $300 \times 400 \times 3 = 360000$
C. $300 \times 400 \times 300 \times 400 = 1.44 \times 10^{10}$
D. $300 \times 400 \times 3 \times 300 \times 400 \times 3 = 1.296 \times 10^{11}$
3. (多选)以下属于卷积神经网络的典型特性的包括( )。
A. 平移不变性
B. 光照不变性
C. 色彩不变性
D. 尺度不变性
4. 以下图像的变换,哪些变换可以依赖于尺度不变性实现对图像样本的识别()。
A. 调整图像的色彩,使其主要对象从红色变为蓝色
B. 将原始图像进行水平反转
C. 将原始图像旋转120度
D. 直接对图像进行大小缩放
5. 卷积神经网络在逐层叠加的过程中不断进行缩放变换确保了样本尺度不变性,相似的多层感知机的逐层叠加也能够实现尺度不变性。
A. 对
B. 错
6. 为了能实现更好的特征表达能力,除了卷积和池化,卷积神经网络还需要()。
A. 更宽的网络支持
B. 更深的网络
C. 更多的神经元
D. 更大的卷积核
卷积神经网络的历史和应用@1.4-1.5
¶1. 以下模型更适合于处理时间序列的一个是:( )。
A. 多层感知机
B. 支持向量机
C. 卷积神经网络
D. 贝叶斯模型
2. 卷积神经网络的"卷积"一词,实际上是一种数学运算方法,该方法属于()次的运算?
A. 一次,即线性运算
B. 二次
C. 三次
D. 高次
3. 卷积神经网络具有局部连接、权重共享等特性,它已经脱离了前馈神经网络的范畴。
A. 正确
B. 错误
3. (多选)感知机是早期最成功的神经网络,但也存在一些问题,主要包括哪两个?
A. 处理不了线性不可分问题
B. 处理不了线性可分问题
C. 输入特征需要人工选择
D. 权重特征无法自动更新
4. 感受野第一次被提出是在下列哪个时期?
A. 1962年, Hubel和Wiesel对猫大脑视觉系统进行了研究
B. 1975年,日本科学家福岛邦彦提出认知机
C. 1989年,Yann Lecun提出用于手写字体识别的卷积神经网络LeNet-5
D. 2012年,Jeffrey Hinton和Alex Krizhvsky提出卷积神经网络AlexNet
5. (多选)以下应用可以用卷积神经网络来实现的有哪些?
A. 为一幅自然风景画添加梵高的抽象艺术模式
B. 为视频和图像添加字幕信息
C. 从海量的卫星图片中寻找鲸鱼经常出没的位置
D. 在自动驾驶中为汽车找到没有障碍物的道路
E. 从10万张狗的图片中找到混入其中的1幅猫的图片
6. 对于图像分类问题,()模型预期表现最好?
A. 感知机或多层感知机
B. 支持向量机
C. 卷积神经网络
D. 循环神经网络
卷积神经网络的输入层@2.1-2.2
¶1. 在卷积神经网络中,通常在每个卷积层背后都会紧跟一个()。
A. 池化层
B. 全连连接层
C. 激活函数
D. Softmax分类层
2. 以下哪个结构是卷积神经网络CNN的最主要的结构组合?
A. 全连接层-激活层-池化层
B. 卷积层-激活层-池化层
C. 池化层-激活层
D. 卷积层-激活层-全连接层
3. 输入层作为神经网络的起点,通常使用()的形式进行输入。
A. 元组
B. 列表
C. 张量
D. 关系型数据
4. 灰度图因为只有一个颜色通道,因此一般使用三阶张量进行输入,即(批大小Batch_Size, 高度Height, 宽度Width)。
A. 正确
B. 错误
5. 对于非结构型的序列化数据,例如简单的二维数据,卷积神经网络并不是特别擅长。
A. 对
B. 错
卷积神经网络的卷积层@2.3.1-2.3.3
¶1. (多选)卷积神经网络依靠卷积运算来生成特征图,它使卷积神经网络具有()的特性。
A. 局部感知
B. 尺度不变性
C. 权重共享
D. 旋转不变性
2. (多选)以下对于局部感知描述正确的项包括()。
A. 卷积操作只关注局部像素,但神经元与采样特征图所有的像素均相连。
B. 卷积操作只关注局部像素,神经元只与采样特征图局部区域的像素相连。
C. 局部连接保证了卷积核对局部特征的最强响应
D. 在同一层中,应用于不同特征图的卷积核的参数固定不变
E. 在同一层中,应用于不同特征图的卷积核具有不同的参数
3. (多选)以下对于权重共享描述正确的项包括()。
A. 权重共享只发生于同一通道,不同通道之间的权重不共享。
B. 权重共享发生于所有通道,不同通道之间的权重也是相同的。
C. 卷积核在划过整个图像时,每次划动都调整卷积核内部的参数。
D. 卷积核在划过整个图像时,每次划动卷积核的参数都是固定不变的。
4. 与全连接层不同,卷积层保持了样本的空间结构,在进行输入的时候不需要将样本转换为向量形式。
A. 对
B. 错
5. 在卷积神经网络中,对于第L层,若特征图的数量为n,则该层上的卷积核的个数为:()。
A. L
B. n
C. $n^2$
D. 无法确定
6. 若某层及其下一层的特征图维度均为 60×60×10,卷积核的维度为3×3×10,则该层的参数个数为()(忽略偏置项)。
A. 36000
B. 90
C. 36000×90
D. 36000×36000
E. 90×90
7. (多选)卷积和池化运算使得特征图的尺度逐渐变小,这意味着()。
A. 层数越高,学到的特征就越具有全局化,高层语言越明显
B. 层数越高,学到的特征就越局部化,局部特征越明显
C. 层数越低,学到的特征就越具有全局化,高层语言越明显
D. 层数越低,学到的特征就越局部化,局部特征越明显
8. 卷积运算是卷积层的核心,它对卷积核与特征图执行(),然后将计算结果按元素进行累加。
A. 外积运算
B. 内积运算
C. 加和运算
D. 求最大值运算
9. (多选)卷积核的个数等于()。
A. 本层特征图的深度
B. 下一层特征图的深度
C. 下一层卷积层卷积核的深度
D. 下一层卷积核的个数
图像上的卷积操作@2.3.4
¶1. 由于灰度图像只有一个颜色通道,因此在使用卷积神经网络对灰度图进行特征提取和建模时,只能使用一个卷积核。
A. 对
B. 错
2. 试计算如下特征图和卷积核的计算结果。
A. 2
B. [[0,0,1],[0,0,0],[0,0,1]]
C. 1
D. [[0,1,1],[0,0,1],[0,0,1]]
3. 若对一个分辨率为100×100的RGB图像使用卷积神经网络(卷积核的高宽为3×3)进行特征提取,则第一个卷积层的卷积核的个数是多少?
A. 9
B. 10000
C. 3
D. 无法确定
4. 在卷积神经网络的低层中,由于卷积核的尺度远小于输入样本(例如输入图像维度为1024×768×3,而卷积核维度为5×5×3,因此无法完全覆盖整个输入样本,这将会导致对样本特征提取时的信息损失。
A. 正确
B. 错误
卷积操作的细节改进 – 步长和填充@2.3.5-2.3.8
¶1. 在卷积和池化的应用下,卷积神经网络的特征图的尺度会随着层次的加深而逐渐变小。若想保持特征图的尺度始终不变,可以采用以下哪种技术?
A. 设置步长参数Stride
B. 设置填充参数padding
C. 调整池化的类型(max|avg)
D. 调整卷积核的尺度filter_size
2. 设输入图像的维度为32×32×3,若存在1个尺度为5×5的卷积核,其步长stride=2,则卷积运算之后的特征图的深度为()。
A. 1
B. 3
C. 5
D. 32
3. 设特征图的尺度为224×224,若卷积核的尺度为5×5,步长stride=3,则卷积运算之后的特征图尺度为()。
A. 224
B. 74
C. 219
D. 73
4. 设特征图的尺度为227×227×10,若卷积核的尺度为3×3×10,步长stride=2,填充padding=1,则卷积运算之后的特征图尺度为()。
A. 227×227×10
B. 224×224×10
C. 114×114×10
D. 113×113×10
5. 设特征图的尺度为32×32×10,若卷积核的尺度为4×4×10,步长stride=2,填充padding=2,则该层的参数个数是多少(忽略偏置项)。
A. 32×32×10×4×4×10=1638400
B. 4×4×10=160
C. (32+2×2-4)/2+1=17
D. ((4+2)×(4+2)+2×2)×10=400
6. 设特征图的尺度为48×48×32,若卷积核的尺度为1×1×32,步长stride=1,填充padding=0,则该层需要进行()次卷积运算。
A. 32
B. 48×48×32=73728
C. 48×48=2304
D. 1×1=1
7. (多选)下列有关卷积层说法正确的是()。
A. 卷积核必须是n×n的形式,即长宽相同
B. 卷积后得到的特征图可以和原图尺寸一致
C. 1×1卷积核常用来做降维,无法对原图提取特征
D. 在卷积层中可以加入激活函数
卷积神经网络的激活层和池化层@2.4-2.6
¶1. 在卷积神经网络中,激活层的主要功能是()。
A. 增加模型的非线性特性,从而提高模型的拟合能力,
B. 提高模型的训练速度
C. 增强模型的泛化能力
D. 以上都正确
2. (多选)以下对池化层描述正确的包括()。
A. 池化层能够成倍地减少计算量
B. 增加池化层不需要增加参数
C. 池化层可以增加模型非线性特性,从而提高模型的拟合能力
D. 池化层可以为模型增加平移不变性的特性
3. 给定一个3×3的矩阵A=[[2,2,2],[2,2,2],[2,2,2]],若存在一个2×2的mean-pooling核,其步长stride=1,则经过池化后的输出结果正确的一项是()。
A. [[1,1,1],[1,1,1],[1,1,1]]
B. [[2,2],[2,2]]
C. [[1,1],[1,1]]
D. [[1]]
4. 给定一个3×3的矩阵A=[[1,2,3],[2,3,4],[3,4,5]],若存在一个2×2的max-pooling核,其步长stride=1,则经过池化后的输出结果正确的一项是()。
A. [[1,2,3],[2,3,4],[3,4,5]]
B. [[2,3],[3,4]]
C. [[3,4],[4,5]]
D. [[5]]
5. 若存在一个117×117的特征图,后面紧跟一个步长为2,尺度为3×3的池化核。试求经过池化层后,特征图新的维度是多少?
A. 117
B. 114
C. 58
D. 57
6. (多选)在卷积神经网络中,我们依然会在网络的最后部分增加1-2个全连接层,其主要目的是()。
A. 进一步减少参数的数量
B. 打破卷积特征的空间限制,从而减少位置固化对分类带来的定势思维的影响。
C. 提高模型对全局信息的获取能力,使所有的元素对最后的分类都具有贡献。
D. 加速模型的训练速度
7. 观察下图给出的网络拓扑结构图,试计算Conv3在执行均值池化后的特征图的维度。
A. 64
B. 21
C. 2
D. 1
8. 池化层最主要的作用是()。
A. 压缩图像
B. 提取图像特征
C. 将多维数据一维化
D. 连接卷积层与全连接层
损失与误差的反向传播@2.7.1
¶1. 为了方便获得分类结果,经常会在CNN的末尾添加一个全连接层,并且让全连接层的神经元数量等于该任务的类别数。
A. 正确
B. 错误
2. 在基于卷积神经网络的分类模型的最后的输出部分,用来衡量输出的预测结果$\hat{y}$和真实的标签$y$之间距离的是()。
A. Softmax函数
B. 交叉熵函数
C. 全连接层
D. 池化层
3. 在卷积神经网络中,我们通常使用的带动量的梯度下降算法主要属于下列的哪一种?
A. 批量梯度下降,每次迭代所有样本
B. 真随机梯度下降,每次仅迭代一个样本
C. 小批量梯度下降,每次迭代batch-size个样本
D. 以上均属于常用梯度下降算法
4. 在包括卷神经网络在内的所有前馈神经网络中,对参数的优化主要发生在以下哪个步骤中?
A. 前向传输
B. 反向传输
C. 同时发生于前向传输和反向传输
D. 前向传输和反向传输均不对参数进行优化
5. 对于一个卷积神经网络模型,规定它的输入为32×32的RGB,输入张量形状为[16,3,32,32], 这里16表示()。
A. batch_size
B. channel
C. height
D. epoch
6. 以下算法中,属于常见的优化算法的是()。
A. SGD
B. Adam
C. Xgboost
D. Momentum
模型的泛化@2.7.2
¶1. (多选)模型的泛化能力是指学习算法(模型)对()样本的适应能力。
A. 训练集
B. 测试集
C. 验证集
D. 未知样本
2. 当欠拟合和过拟合都是模型泛化能力不足时可能出现的问题,下图中哪一个图表示的是模型过拟合问题?
A. 左图
B. 中图
C. 右图
D. 以上都不是
3. 以下描述的问题,哪一个是过拟合的表现?()
A. 训练集和测试集的性能都较低
B. 训练集性能较低,测试集性能较高
C. 训练集性能较高,测试集性能较低
D. 训练集和测试集的性能都较高
4. 对于下列泛化能力不足的问题,哪一项是深度学习的典型问题?()
A. 过拟合
B. 欠拟合
C. 以上都是
D. 以上都不是
5. (多选)以下哪些方式,可以有效地缓解过拟合问题?
A. 早期停止法(Early-stopping)
B. 权重正则化(Weight Normlization)
C. 数据增广(Data Augumentation)
D. 随机丢弃Dropout