食用指南

1.所有笔记和感想都在K-lab的jupyter里,由二级及以上标题且以注释两字开头,部分代码有注释,会先放出链接,需要的自取。
2.课后练习会放上题目和自己的答案解析(纯属瞎编,看看就好)

卷积神经网络基础

1.K-lab链接:https://www.kesci.com/org/boyuai/project/share/bbc44b9e63f60b82

2.课后练习

假如你用全连接层处理一张256×256的彩色(RGB)图像,输出包含1000个神经元,在使用偏置的情况下,参数数量是?
A. 65536001
B. 65537000
C. 196608001
D. 196609000
参考答案:D

解析:画重点,彩色(RGB)表示有3位通道数,要x3,256x256x3x1000+每个神经元上偏执单元的个数=D

假如你用全连接层处理一张256×256的彩色(RGB)图像,卷积核的高宽是3×3,输出包含10个通道,在使用偏置的情况下,这个卷积层共有多少个参数?
A. 90
B. 100
C. 280
D. 300
参考答案:C

解析:同上,3x3x10+10=280

conv2d = nn.Conv2d(in_channels=3, out_channels=4, kernel_size=3, padding=2),输入一张形状为3×100×100的图像,输出的形状为?
A. 3x102x102
B. 3x100x100
C. 4x102x102
D. 4x100x100
参考答案:C

解析:out_channels表示输出通道数,即第一个维度,所以锁定C,D;卷积核大小为3,填充为2,所以长宽都是100+2*2(两边填充)-3=102

关于卷积层,以下哪种说法是错误的:
A. 1×1卷积可以看作是通道维上的全连接
B. 某个二维卷积层用于处理形状为3×100×100的输入,则该卷积层无法处理形状为3×256×256的输入
C. 卷积层通过填充、步幅、输入通道数、输出通道数等调节输出的形状
D. 两个连续的3×3卷积核的感受野与一个5×5卷积核的感受野相同
参考答案:B

解析:卷积层对于高宽没有限制,只需要计算好就行输入就行。

关于池化层,以下哪种说法是错误的:
A. 池化层不参与反向传播
B. 池化层没有模型参数
C. 池化层通常会减小特征图的高和宽
D. 池化层的输入和输出具有相同的通道数
参考答案:A

解析:感觉这题也是有点点问题,B选项池化层没有模型参数,个人感觉池化大小也是个参数。

LeNet

1.K-lab链接:https://www.kesci.com/org/boyuai/project/share/e431c758eeb628d9

2.课后练习

关于LeNet,以下说法中错误的是:
A. LeNet主要分为两个部分:卷积层块和全连接层块
B. LeNet的绝大多数参数集中在卷积层块部分
C. LeNet在连接卷积层块和全连接层块时,需要做一次展平操作
D. LeNet的卷积层块交替使用卷积层和池化层。
参考答案:B

解析:卷积所需要的参数很少,相反的全连接层所需要的参数却很多,所以LeNet绝大部分参数都是全连接层的参数。

关于卷积神经网络,以下说法中错误的是:
A. 因为全连接层的参数数量比卷积层多,所以全连接层可以更好地提取空间信息
B. 使用形状为2×2,步幅为2的池化层,会将高和宽都减半
C. 卷积神经网络通过使用滑动窗口在输入的不同位置处重复计算,减小参数数量
D. 在通过卷积层或池化层后,输出的高和宽可能减小,为了尽可能保留输入的特征,我们可以在减小高宽的同时增加通道数
参考答案:A

解析:卷积层的作用才是更好的提取空间信息,全连接层输入需要flatten,即压成一维,所以原来相邻的像素可能在向量中距离较远,无法提取较好的空间信息。

卷积神经网络进阶

1.K-lab链接:https://www.kesci.com/org/boyuai/project/share/55f7cf0c5b0eff57

2.课后练习

关于AlexNet描述错误的是
A. 用Dropout来控制全连接层的模型复杂度
B. 包含有5层卷积和2层全连接隐藏层,以及1个全连接输出层
C. 将LeNet中的ReLU激活函数改成了sigmoid激活函数。
D. 首次证明了学习到的特征可以超越⼿⼯设计的特征
参考答案:C

解析:AlexNet比较牛逼,所以选择了缓解梯度消失的ReLU激活函数,LeNet才是sigmoid。

下列哪个网络串联多个由卷积层和“全连接”层构成的小⽹络来构建⼀个深层⽹络
A. AlexNet
B. VGG
C. NiN
D. GoogLeNet
参考答案:C

解析:看图说话

下列模型不是由基础块重复堆叠而成的是
A. AlexNet
B. VGG
C. NiN
D. GoogLeNet
参考答案:A

解析:AlexNet相对于其他的又是弟弟,所以只有一个基础块,无法堆叠。

通道数为3,宽高均为224的输入,经过一层输出通道数为96,卷积核大小为11,步长为4,无padding的卷积层后,得到的feature map的宽高为
A. 96
B. 54
C. 53
D. 224
参考答案:B

解析:只需要计算宽高,所以就是(宽高224-卷积核大小11)/ 步长4 + 1 = 54

关于VGG描述正确的是
A. 使⽤全局平均池化层对每个通道中所有元素求平均并直接⽤于分类。(NiN)
B. 通过不同窗口形状的卷积层和最⼤池化层来并⾏抽取信息。(GoogLeNet)
C. 与AlexNet相比,难以灵活地改变模型结构。
D. 通过重复使⽤简单的基础块来构建深度模型。
参考答案:C

解析:看图说话

标签: none

添加新评论