挑战美团最快速通记录!面经还愿。

bg:AI infra相关,但是3个志愿全挂,被到家的后端开发捞了,做的高性能计算相关。

timeline:9.9一面 9.12二面 9.12 OC 4天速通。

一面

一面对简历上的所有项目进行了拷打。主要询问项目细节之类的。

八股:

  • Decoder-only和Encoder-only模型的优缺点
  • 介绍一下LLama模型
  • CUDA编程模型
  • CUDA内存模型
  • 使用共享内存时需要注意什么(bank conflict),怎么避免
  • 使用寄存器时需要注意什么,怎么避免
  • GPU的多线程和CPU的多线程有什么区别
  • flash attention
  • page attention

二面

二面应该是技术Leader,能明显感觉到专业性很强。

因为简历有提到RPC,所以深入讨论了RPC的相关内容。自己做过的部分答得不错,但是深入到细节和网络编程的部分就汗流浃背了,面试官屡次安慰我,没事就是讨论一下,不会也没关系。

到这感觉也还行,因为不是搞后端的,不会也还好了。

然后就是岗位相关的拷打,问了项目的几个问题还有一些CUDA,最后手撕。

手撕可太有戏剧性了,题目本身比较简单,做完之后面试官指出了几个代码中影响性能的点(会导致时间复杂度的常数比较大还有其他诸如内存多次拷贝的问题),问我怎样处理,也都答上来了。这个时候面试官很无奈,苦笑着跟我说:“你不会也就罢了,我还能理解你为什么这么写,可是你明明都知道为啥会影响性能,你还这样写,我就觉得很遗憾了。我们搞高性能计算的,最看重的就是性能优化,你这样写我真的很无奈。”到这感觉已经凉了,因为在练算法题的时候,确实没有在这种细节上扣。

已经知道自己废了,进行了一些反问,面试官给了一些建议。我觉得很挺好的,至少从这一轮面试中认识到了不足,不是一味的八股吟唱。最后还是不死心问了下面试官接下来的流程,面试官再次苦笑,说我不用考虑后面的流程了。简单开了个小玩笑,最后还是很认真的回答了我的问题。并且反问了下我本场面试的对自己的评价。

面试的过程其实很愉快,聊的也比较投机。我跟面试官笑的都很开心,虽然挂了,但是学到了经验,感觉还是很满意的。本来等着把我挂掉让别的部门来捞,但是晚上刷手机的时候反转来了,突然收到了意向邮件,欣喜若狂!至此,艺术已成,团孝子,启动!

#美团##面经#
全部评论
base哪里呀
1 回复 分享
发布于 2024-09-15 14:40 四川
佬,请问有笔试吗? 有的话是怎么分布的呢? 都是编程题吗?
点赞 回复 分享
发布于 2024-10-11 16:31 福建
二面手撕什么题目呀,reduce、gemm吗
点赞 回复 分享
发布于 2024-09-15 15:08 四川
想问问佬rpc相关问了哪些问题
点赞 回复 分享
发布于 2024-09-14 08:36 上海
羡慕
点赞 回复 分享
发布于 2024-09-14 07:31 江西

相关推荐

1.  注意力机制:请简述 MHA、MQA 和 GQA 三种注意力机制的核心区别。2.  模型架构:Dense 模型与 MoE 模型有何本质区别?3.  路由机制:MoE 模型中,路由(Routing)机制具体是如何工作的?4.  LoRA 微调:请阐述 LoRA 的原理,以及其中 A、B 矩阵的初始化方式和秩(Rank)的设置考量。5.  强化学习:请对比 DPO、PPO 和 GRPO 的原理与区别,并写出 DPO 的 Loss 函数公式。6.  推理加速:vLLM 中使用了哪些关键技术(如 PagedAttention、KV Cache)来优化推理?7.  并行框架:你对 DeepSpeed 这一加速推理与训练框架有多少了解?8.  BM25 算法:请讲解 BM25 算法的计算原理。9.  负载均衡:MoE 模型中专家(Expert)的负载不均衡问题该如何解决?10.  损失函数:能否通过修改损失函数的方式来缓解 MoE 的负载均衡问题?11.  数据分布:SFT 微调数据与预训练数据分布差异较大时,该如何处理?12. Scaling Law:SFT 微调的数据集是越大越好吗?是否存在 Scaling Law 现象?13. 训练稳定性:强化学习(RL)为何存在训练不稳定的问题?既然不稳定为何业界仍广泛使用?14. 三数之和:LeetCode 15. 三数之和。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看14道真题和解析
点赞 评论 收藏
分享
评论
9
31
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务