关于卷积神经网络CNN,以下说法错误的是:()
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
第1题
A.因为它可以被用做监督学习
B.严格意义上它比卷积神经网络(CNN)效果更好
C.它比较适合用于当输入/输出是一个序列的时候(例如.一个单词序列)
D.RNNs代表递归过程.想法->编码->实验->想法->…
第2题
A.局部感知使网络可以提取图像的局部特征,而权值共享大大降低了网络的训练难度
B.通道数量越多,获得的特征图(Featuremap)就越多
C.卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变
D.SAME填充和VALID填充的主要区别是前者向图像边缘添加0值,而后者可能会忽略来自图像边缘的值
第3题
A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP
B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度
C.舍弃了R-CNN的多尺度池化,提高了算法的速度
D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络
第5题
A.使用较小的卷积,并统一卷积核的大小
B.使用定点计算的神经网络代替浮点运算
C.使用ReLU作为非线性激发函数
D.增加网络的深度