有关深度神经网络的训练(Training)和推断(Inference),以下说法中不正确的是:()。
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
第4题
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
第5题
A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP
B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度
C.舍弃了R-CNN的多尺度池化,提高了算法的速度
D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络
第6题
A.学习率过大更容易导致训练陷入局部极小值
B.学习率可以与其他网络参数一起训练,对降低代价函数是有利的
C.学习率可以随着训练误差动态调整效果更好
D.网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡
第9题
A.神经网络对训练数据中的噪声非常鲁棒
B.可以处理冗余特征
C.训练ANN是一个很耗时的过程
D.至少含有一个隐藏层的多层神经网络