首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
在大语言模型(LLM)的实际部署中,推理延迟是常见的瓶颈。以
[单选题]
在大语言模型(LLM)的实际部署中,推理延迟是常见的瓶颈。以下哪种优化技术能同时有效减少模型的计算量和内存占用?
增加批处理大小
采用模型量化(Quantization)
延长序列长度
使用更大的浮点精度
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(3)
分享
纠错
0个回答
添加回答
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
大模型概念
难度:
0条回答
3收藏
30浏览
热门推荐
相关试题
在AI大模型的应用中,"微调"的主...
大模型概念
评论
(0)
在使用AI大模型进行文本生成时,"...
大模型概念
评论
(0)
在AI大模型的训练中,"过拟合"通...
大模型概念
评论
(0)
在大语言模型中,什么是"Gated...
大模型开发
评论
(1)
关于大模型“上下文窗口”的理解,以...
大模型概念
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题