首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
下列是caffe支持的loss优化的方法的是()
[不定项选择题]
下列是caffe支持的loss优化的方法的是()
Adam
SGD
AdaDelta
Nesterov
查看答案及解析
添加笔记
求解答(3)
邀请回答
收藏(397)
分享
7个回答
添加回答
44
院长灿爷
Stochastic Gradient Descent (type: “SGD”),
随机梯度下降
AdaDelta (type: “AdaDelta”) 自适应学习率
Adaptive Gradient (type: “AdaGrad”)
自适应梯度
Adam (type: “Adam”) 自适应学习,推荐使用
Nesterov’s Accelerated Gradient (type: “Nesterov”)
加速梯度法
RMSprop (type: “RMSProp”)
发表于 2020-04-14 18:06:38
回复(3)
13
理想L9
caffe六种优化方法
Stochastic Gradient Descent (type: “SGD”),
AdaDelta (type: “AdaDelta”)
Adaptive Gradient (type: “AdaGrad”)
Adam (type: “Adam”)
Nesterov’s Accelerated Gradient (type: “Nesterov”)
RMSprop (type: “RMSProp”)
编辑于 2020-08-14 13:17:00
回复(0)
5
风霁
现在还用caffee的吗。。。。
发表于 2020-07-02 12:31:16
回复(1)
3
haitao86
这题目有意思吗?
做深度学习必须要回caffe?
发表于 2024-08-08 14:32:11
回复(0)
2
carpdm
?这个问题,爷佛了
发表于 2020-06-20 14:49:58
回复(1)
0
JoceFo
Caffe是一个流行的深度学习框架,支持多种优化方法:
A. Adam 是一种自适应学习率的优化算法,结合了动量和RMSprop的优点。
B. SGD(随机梯度下降)是最基本的优化算法,通过随机选择小批量数据来更新权重。
C. AdaDelta 是一种自适应学习率的优化算法,类似于Adagrad,但避免了学习率过快衰减的问题。
D. Nesterov 是一种改进的动量优化算法,通过先计算梯度再更新权重,提高了收敛速度。
发表于 2025-04-03 13:34:15
回复(1)
0
魔峥
caffe架构太古董了。我觉得看看就行
发表于 2022-10-23 10:41:58
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
算法工程师
深度学习
2019
顺丰集团
来自:
顺丰科技2019秋招视...
上传者:
小小
难度:
7条回答
397收藏
2950浏览
热门推荐
相关试题
下面描述中,符合结构化程序设计风格...
北京搜狐互联网信息服务有限公司
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
PHP工程师
2018
评论
(1)
在CNN网络中,图A经过核为3x3...
算法工程师
顺丰集团
2019
深度学习
评论
(47)
来自
顺丰科技2019秋招视觉...
(verbal)最近的研究显示,许...
言语理解与表达
2019
普华永道
人力资源
审计
税务服务
风险管理
管理咨询
行政管理
评论
(2)
来自
职能类模拟题14
对序列(12,18,22,38,3...
排序
Java工程师
C++工程师
iOS工程师
安卓工程师
算法工程师
PHP工程师
顺丰集团
2019
信息技术岗
区块链
评论
(16)
来自
顺丰科技2019秋招安卓...
在大语言模型中,什么是"Gated...
大模型开发
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题