首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
下列是caffe支持的loss优化的方法的是()
[不定项选择题]
下列是caffe支持的loss优化的方法的是()
Adam
SGD
AdaDelta
Nesterov
查看答案及解析
添加笔记
求解答(3)
邀请回答
收藏(399)
分享
7个回答
添加回答
44
院长灿爷
Stochastic Gradient Descent (type: “SGD”),
随机梯度下降
AdaDelta (type: “AdaDelta”) 自适应学习率
Adaptive Gradient (type: “AdaGrad”)
自适应梯度
Adam (type: “Adam”) 自适应学习,推荐使用
Nesterov’s Accelerated Gradient (type: “Nesterov”)
加速梯度法
RMSprop (type: “RMSProp”)
发表于 2020-04-14 18:06:38
回复(3)
13
理想L9
caffe六种优化方法
Stochastic Gradient Descent (type: “SGD”),
AdaDelta (type: “AdaDelta”)
Adaptive Gradient (type: “AdaGrad”)
Adam (type: “Adam”)
Nesterov’s Accelerated Gradient (type: “Nesterov”)
RMSprop (type: “RMSProp”)
编辑于 2020-08-14 13:17:00
回复(0)
5
风霁
现在还用caffee的吗。。。。
发表于 2020-07-02 12:31:16
回复(1)
3
haitao86
这题目有意思吗?
做深度学习必须要回caffe?
发表于 2024-08-08 14:32:11
回复(0)
2
carpdm
?这个问题,爷佛了
发表于 2020-06-20 14:49:58
回复(1)
0
JoceFo
Caffe是一个流行的深度学习框架,支持多种优化方法:
A. Adam 是一种自适应学习率的优化算法,结合了动量和RMSprop的优点。
B. SGD(随机梯度下降)是最基本的优化算法,通过随机选择小批量数据来更新权重。
C. AdaDelta 是一种自适应学习率的优化算法,类似于Adagrad,但避免了学习率过快衰减的问题。
D. Nesterov 是一种改进的动量优化算法,通过先计算梯度再更新权重,提高了收敛速度。
发表于 2025-04-03 13:34:15
回复(1)
0
魔峥
caffe架构太古董了。我觉得看看就行
发表于 2022-10-23 10:41:58
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
算法工程师
深度学习
2019
顺丰集团
来自:
顺丰科技2019秋招视...
上传者:
小小
难度:
7条回答
399收藏
3011浏览
热门推荐
相关试题
以下关于TCP和UDP说法正确的是()
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
测试工程师
顺丰集团
2019
评论
(13)
来自
顺丰科技2019秋招运维...
下面描述中,符合结构化程序设计风格...
北京搜狐互联网信息服务有限公司
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
PHP工程师
2018
评论
(1)
(verbal)最近的研究显示,许...
言语理解与表达
2019
普华永道
人力资源
审计
税务服务
风险管理
管理咨询
行政管理
评论
(2)
来自
职能类模拟题14
对于如下给定的5*5的图片,使用3...
深度学习
评论
(1)
关于硬件产品的BOM成本与定价策略...
产品常识
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题