首页 > 试题广场 >

在Transformer架构中,self-attention

[单选题]
在Transformer架构中,self-attention机制的主要作用是?
  • 建模序列元素间的依赖关系
  • 减少模型参数量
  • 加速反向传播计算
  • 提供额外的非线性能力

这道题你会答吗?花几分钟告诉大家答案吧!