首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
在标准 Transformer 模型中,自注意力(Self-
[单选题]
在标准 Transformer 模型中,自注意力(Self-Attention)机制是其核心组件。假设输入序列的长度为 N,模型的隐藏层维度(或称为表示维度)为 d,那么标准自注意力模块的计算复杂度主要是?
O(N * d^2)
O(N^2 · d)
O(N · d)
O(N^2 * d^2)
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(20)
分享
纠错
0个回答
添加回答
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
深度学习
难度:
0条回答
20收藏
44浏览
热门推荐
相关试题
在CNN网络中,图A经过核为3x3...
算法工程师
顺丰集团
2019
深度学习
评论
(47)
来自
顺丰科技2019秋招视觉...
在大语言模型中,什么是"Gated...
大模型开发
评论
(1)
下面关于 Java 中的异常处理说...
Java
评论
(1)
关于大模型“上下文窗口”的理解,以...
大模型概念
评论
(1)
Vue Router的全局前置守卫...
Vue
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题