首页 > 试题广场 >

在Transformer架构中,自注意力机制的主要作用是什么

[单选题]
在Transformer架构中,自注意力机制的主要作用是什么?
  • 计算输入序列中每个元素之间的依赖关系,以捕捉长距离上下文
  • 生成输出序列的最终词分布,用于文本生成任务
  • 执行卷积操作,以提取局部特征模式
  • 直接优化模型权重,减少训练时间

这道题你会答吗?花几分钟告诉大家答案吧!