首页 > 试题广场 >

在大型语言模型中,Transformer架构的核心组件自注意

[单选题]
在大型语言模型中,Transformer架构的核心组件自注意力机制的主要优势是什么?
  • 显著降低训练数据的存储需求
  • 有效捕获长距离序列依赖关系
  • 自动生成高质量训练数据集
  • 完全消除梯度消失问题

这道题你会答吗?花几分钟告诉大家答案吧!