首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
大型语言模型的训练中,缩放定律(Scaling Laws)表
[单选题]
大型语言模型的训练中,缩放定律(Scaling Laws)表明模型性能取决于多个因素。以下哪项不是缩放定律的核心影响要素?
训练数据量的大小
模型参数数量
优化器类型选择
训练计算预算(FLOPs)
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(18)
分享
纠错
2个回答
添加回答
0
LT·A~
在模型训练过程中,缩放定律描述的是模型性能与计算资源之间的数学关系,其核心观点是随着模型规模、数据量和计算资源的增加,模型性能会按特定规律持续提升
发表于 2025-11-05 09:24:11
回复(0)
0
勤奋努力的亚瑟求求offer
缩放定律:大模型规模、数据规模、计算资源
发表于 2025-10-19 18:49:00
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
大模型概念
难度:
2条回答
18收藏
181浏览
热门推荐
相关试题
在AI大模型的应用中,"微调"的主...
大模型概念
评论
(0)
在使用AI大模型进行文本生成时,"...
大模型概念
评论
(0)
在AI大模型的训练中,"过拟合"通...
大模型概念
评论
(0)
在大语言模型中,什么是"Gated...
大模型开发
评论
(1)
关于大模型“上下文窗口”的理解,以...
大模型概念
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题