首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
Scaled Dot-Product Attention 中
[单选题]
Scaled Dot-Product Attention 中对 QK^T 的结果除以 sqrt(d_k) 的主要目的是
引入归一化的位置信息
缩小 softmax 输入方差,避免梯度饱和
提高模型容量
减少计算量
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(0)
分享
纠错
0个回答
添加回答
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
来自:
2025年秋招-华为-...
难度:
0条回答
0收藏
6浏览
热门推荐
相关试题
向量组 {(1,0,1),(0,1...
评论
(0)
来自
2025年秋招-华为-1...
关于连续型随机变量,以下说法正确的...
评论
(0)
来自
2025年秋招-华为-1...
在 R^2 中,下列集合是子空间的有
评论
(0)
来自
2025年秋招-华为-1...
关于多模态大模型(如 BLIP-2...
评论
(0)
来自
2025年秋招-华为-1...
交叉熵损失函数主要用于
评论
(0)
来自
2025年秋招-华为-1...
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题