首页 > 试题广场 >

在神经网络中,Leaky ReLU激活函数相对于标准ReLU

[单选题]
在神经网络中,Leaky ReLU激活函数相对于标准ReLU的主要改进是解决了以下哪个问题?
  • 正向传播时输出值范围过大导致的梯度爆炸
  • 反向传播时负数区间梯度为0导致的“死亡神经元”问题
  • 激活函数输出非零均值导致的训练收敛变慢
  • 饱和区域梯度消失导致的训练停滞

这道题你会答吗?花几分钟告诉大家答案吧!