为了加速神经网络模型训练时的收敛速度,应该进行以下哪些操作()。
A.增加样本个数
B.调整优化器
C.增加batch数
D.优化参数的初始化值
A.增加样本个数
B.调整优化器
C.增加batch数
D.优化参数的初始化值
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
A.Adam的收敛速度比RMSprop慢
B.相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的
C.对于轻量级神经网络,使用Adam比使用RMSprop更合适
D.相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的
考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个预先训练好的网络()。
A.把除了最后一层外所有的层都冻结,重新训练最后一层
B.对新数据重新训练整个模型
C.只对最后几层进行调参(finetune)
D.对每一层模型进行评估,选择其中的少数来用
以下哪项是对早期停止(early stop)的最佳描述?()
A.训练网络直到达到误差函数中的局部最小值
B.在每次训练期后在测试数据集上模拟网络,当泛化误差开始增加时停止训练
C.在中心化权重更新中添加一个梯度下降加速算子,以便训练更快地收敛
D.更快的方法是反向传播算法
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对