首页 > 试题广场 >

在训练神经网络时,损失函数下降得很慢,下列说法中不可能的是(

[单选题]

在训练神经网络时,损失函数下降得很慢,下列说法中不可能的是()

  • 学习率太低

  • 正则参数太高

  • 陷入局部最小值

  • 训练数据太少

训练数据太少对于模型来说反而更容易学习,loss很快就下降得非常低了,模型极度容易过拟合
发表于 2021-08-15 21:04:28 回复(0)
数据集太少,loss下降很快,因为模型很容易就学习完了,然后loss就不会再下降了。
发表于 2021-07-30 10:58:57 回复(0)