首页 > 试题广场 >

在Transformer架构中,自注意力机制的核心作用是什么

[单选题]
在Transformer架构中,自注意力机制的核心作用是什么?
  • 减少模型的参数规模
  • 捕捉序列中元素之间的依赖关系
  • 提高模型的训练速度
  • 增强模型的图像处理能力

这道题你会答吗?花几分钟告诉大家答案吧!