首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
在神经网络中,第一层的激活函数为Relu:f(t) 
[单选题]
在神经网络中,第一层的激活函数为Relu:f(t) = max(0, t),其中t = w*x + b,x为instance输入,w和b为模型参数,如果一个instance在这里的输入值对应t=-1,那么在backpropagate计算参数的梯度时,对于这个instance来说,传过这个激活函数的梯度值为
1
0
-1
2
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(24)
分享
纠错
2个回答
添加回答
2
pein531
instance已经小于0了,relu激活函数在小于0的部分梯度为0
发表于 2020-12-28 18:10:36
回复(0)
1
lovecci
这个激活函数类似ReLU函数,小于0的话梯度为0
发表于 2019-11-25 19:46:50
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
数据分析工程师
数据挖掘工程师
算法工程师
哔哩哔哩
2020
上传者:
小小
难度:
2条回答
24收藏
2462浏览
热门推荐
相关试题
拆礼盒
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
PHP工程师
测试工程师
安全工程师
c#工程师
数据库工程师
大数据开发工程师
vivo
2020
嵌入式工程师
数据挖掘工程师
测试开发工程师
评论
(24)
服务部署
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
PHP工程师
测试工程师
安全工程师
c#工程师
数据库工程师
大数据开发工程师
vivo
2020
嵌入式工程师
数据挖掘工程师
测试开发工程师
评论
(28)
看图回答
判断推理
2020
人力资源
安永
审计
税务服务
风险管理
管理咨询
行政管理
评论
(2)
来自
职能类模拟题2
在大语言模型中,什么是"Gated...
大模型开发
评论
(1)
关于大模型“上下文窗口”的理解,以...
大模型概念
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题