AI infra推理方向日常实习面经总结

攒人品攒人品~~
1.实习拷打
2.推理相关知识点:
1.transformer架构(encoder-only、decoder-only、encoder-decoder各自优缺点,模型举例)
2.prefill/decode 结合roofline讲
3.nv基础(grid、block、thread、warp、l0cache/l1cache(shared memory)/l2cache/global memory、sram/hbm、tensor core、tma等)
4.vllm相关(pagedattention、连续批处理、v0/v1架构、chunked prefill、prifix caching等)
5.sglang相关 (radixattention,sglang代码没怎么看,问的不多)
flashattention v1-v3、flashdecoding
6.量化(LLM.int8()、SmoothQuant、AWQ、GPTQ等、量化的好处)
7.投机解码(什么是投机解码、lookahead、n-gram、medusa、eagle)
8.并行(dp/tp/pp/ep各自是什么,在vllm中如何实现)
9.通信(reduce、gather、开销考虑)
10.主流模型架构(llama1-3的演变、qwen3的moe怎么做的、deepseek的mtp)
11.kvcache压缩手段(MHA、MQA、GQA、MLA)
12.pd分离
3.其他知识点
计网、操作系统、python八股 都很基础
4.手撕
leetcode:反转链表、链表重排(lc143)、中序遍历二叉树的递归和非递归实现、最长连续序列(lc128)
triton/cuda:layer norm、大矩阵规约求和、online-softmax
全部评论

相关推荐

继续来分享下之前的面经~欢迎友好讨论,信息共享1️⃣算法题:手撕内存池(要求支持类似new Foo[], delete []功能),c++如何比较两个float是否相等,LRU,岛屿个数,二叉树的层序遍历,hamming weight,k-coverage intervals2️⃣torch手撕题: LoRA adapter3️⃣cuda手撕题:1- 支持torch broadcast的4D tensor的elementwise mul2- A: (1, 256),  B: (256, 128),  C: (128, 256) ,计算 (A * B) * C3- Embedding Sparse Feature Pooling:A是 100 万个离散 ID(0~999),B是 100 万个float,计算个长度为1000的float数组C,C[i] = \sum_{j s.t. A[j] = i} B[j]4️⃣ai infra或算法八股:1- llm的知识蒸馏放在预训练做是否合适2- Hopper TMA的优点,调用方式,是否需要经过L13- Flash Attention v2为什么外层对Q循环,Flash Decoding的combine kernel耗时占比大概是多少4- Mooncake kv-cache centric的PD分离5- Dit的推理框架设计思路和LLM的有什么异同6- 分析MLA decode的计算访存比,它和seqlen、batch size是否相关7- diffusion model的训练和推理步骤,推理num_inference_steps为40时,为什么训练的timesteps仍要设成10008- 介绍dLLM,如何看待它和AR的区别9- torch.repeat 和 torch.expand的区别10- torchrun的启动参数有哪些,如何在Linux上批量kill包含torchrun的进程
查看21道真题和解析
点赞 评论 收藏
分享
评论
1
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务