美团大模型算法校招面经 攒人品

八股
1.bf16 和 float16 的区别?各占多少位?训练中如何选择?
2.DeepSpeed Zero 各阶段分别做了哪些优化?
3.如何估算 LLaMA-7B 模型推理时的显存占用?
4.Prefix LM、Causal LM、Encoder-Decoder 三类架构的适用场景与优缺点?
5.Qwen 或 DeepSeek 技术报告中提到的关键创新点有哪些?例如: RoPE 外推、MoE
6.PPO/GRPO 微调后,如何防止模型在分布外(OOD)问题上性能崩塌?
7.是否自己实现过 RLHF 流程?不用框架能否手写 PPO 核心逻辑?
8.模型部署用了什么框架(vLLM/TGI/自研)?如何优化推理延迟和吞吐?
9.未来希望专注大模型哪个方向?例如:对齐 / 推理加速 / 长上下文
手撕:
K 个一组翻转链表(LeetCode 25)
全部评论

相关推荐

01-29 19:29
已编辑
北京信息科技大学 Python
1.自我介绍;2.本科毕设项目介绍;3.Retinaface和Facenet的具体网络模型;4.Retinaface是如何检测人脸的,Facenet是如何识别人脸的;5.项目的创新点有什么,评判指标是什么;6.检测和识别用的时间,其中esp8266,mg996r分别是做什么用的;7.大模型量化比赛项目介绍;8.AWQ和GPTQ是什么;9.什么模型适合用AWQ,什么模型适合用GPTQ;10.其中最优的参数是怎么得到的;11.llm- benchmarker怎么用的,是什么评判指标;12.了解算子吗?(marlin kernel)详细说一下这个算子是什么;13.除了量化其他的方法了解吗?(压缩、减枝、LoRA)14.LoRA是什么;QLoRA是什么?为什么要用LoRA;15.具体的原理是怎么样的;16.如何将LoRA结合到TransFormer各个层?17.介绍一下TransFormer的架构;18.Encoder和Decoder是由什么组成的;19.MHA细节是怎么样的(QKV),softmax是干什么用的;20.单头注意力和多头注意力有什么区别;21.为什么MHA下面要除根号d;22.潜在多头注意力了解吗,多头注意力的作用;23.FFN详细说一下;24.残差链接有什么用;25.Layer Normalization有什么用;26.Layer Normalization和Batch  Normalization的区别;27.Qwen3的基础架构是怎么样的;28.Qwen3和Qwen2.5相比有什么区别;29.Qwen3和DeepSeek有多少个头;30.大模型要训练出思维链应该如何训练;31.如何平衡精度和推理速度,怎么做trade off的;32.了解Agent吗,做过什么agent项目33.Dense模型是什么;34.MoE、MLA是什么,详细讲一下;35.LoRA的偏置矩阵详细说一下,为什么LoRA初始化A要正态分布,B要初始化为0;36.秩是什么意思;怎么理解;37.Qwen3哪里做的好;38.快手实习项目介绍;39.经纬恒润实习项目介绍;40.了解量化交易吗;41.你平时做交易是趋势还是阶段?------二更已oc
你最近因为什么迷茫?
点赞 评论 收藏
分享
评论
2
6
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务