首页 > 试题广场 >

Adam优化器是深度学习中常用的自适应优化算法,以下关于其核

[单选题]
Adam优化器是深度学习中常用的自适应优化算法,以下关于其核心特性的描述正确的是?
  • 同时跟踪梯度的一阶矩(均值)和二阶矩(方差)估计,自适应调整学习率
  • 使用固定的学习率,不随迭代过程调整
  • 仅依赖当前批次的梯度值,不积累历史梯度信息
  • 对学习率的初始值非常敏感,需要精细调参才能收敛
  • 一阶矩估计(First moment):即梯度的指数移动平均(类似于动量),用于估计梯度的均值。
  • 二阶矩估计(Second moment):即梯度平方的指数移动平均,用于估计梯度的未中心化方差。
  • 利用这两个矩估计,Adam 会为每个参数自适应地调整学习率,使得不同参数在不同方向上可以有不同的更新步长。
发表于 2025-12-23 17:58:32 回复(0)