首页 > 试题广场 >

在Transformer模型中,为什么需要Positiona

[单选题]
在Transformer模型中,为什么需要Positional Encoding?
  • 弥补自注意力机制无法感知序列顺序的缺陷
  • 增加模型非线性表达能力
  • 降低计算复杂度的补偿措施
  • 解决多头注意力中的梯度冲突

这道题你会答吗?花几分钟告诉大家答案吧!