2024 | 大模型算法工程师相关面试题汇总

前言

在准备大模型的面试时,我们需要对模型的基础理论、进阶应用、微调策略、以及特定技术如LangChain、参数高效微调(PEFT)等有深入的理解。

这里给大家整理了一份详细的面试题,帮助大家提前进行面试复习,同时对自己的技术进行查漏补缺。

一、大模型基础面试题

  1. 目前主流的开源模型体系有哪些?
  2. prefix LM 和 causal LM 区别是什么?
  3. 涌现能力是啥原因?
  4. 大模型LLM的架构介绍?

二、大模型进阶面试题

  1. llama 输入句子长度理论上可以无限长吗?
  2. 什么是 LLMs 复读机问题?
  3. 为什么会出现 LLMs 复读机问题?
  4. 如何缓解 LLMs 复读机问题?
  5. LLMs 复读机问题
  6. llama 系列问题
  7. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
  8. 各个专业领域是否需要各自的大模型来服务?
  9. 如何让大模型处理更长的文本?

三、大模型微调面试题

  1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
  2. 为什么SFT之后感觉LLM傻了?
  3. SFT 指令微调数据 如何构建?
  4. 领域模型Continue PreTrain 数据选取?
  5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
  6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
  7. 进行SFT操作的时候,基座模型选用Chat还是Base?
  8. 领域模型微调 指令&数据输入格式 要求?
  9. 领域模型微调 领域评测集 构建?
  10. 领域模型词表扩增是不是有必要的?
  11. 如何训练自己的大模型?
  12. 训练中文大模型有啥经验?
  13. 指令微调的好处?
  14. 预训练和微调哪个阶段注入知识的?
  15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
  16. 多轮对话任务如何微调模型?
  17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
  18. 微调模型需要多大显存?
  19. 大模型LLM进行SFT操作的时候在学习什么?
  20. 预训练和SFT操作有什么不同
  21. 样本量规模增大,训练出现OOM错
  22. 大模型LLM进行SFT 如何对样本进行优化?
  23. 模型参数迭代实验

四、大模型Langchain面试题

  1. 什么是 LangChain?
  2. LangChain 包含哪些 核心概念?
  3. 什么是 LangChain Agent?
  4. 如何使用 LangChain ?
  5. LangChain 支持哪些功能?
  6. 什么是 LangChain model?
  7. LangChain 包含哪些特点?
  8. LangChain 如何使用?
  9. LangChain 存在哪些问题及方法方案?
  10. LangChain 替代方案?
  11. LangChain 中 Components and Chains 是什么?
  12. LangChain 中 Prompt Templates and Values 是什么?
  13. LangChain 中 Example Selectors 是什么?
  14. LangChain 中 Output Parsers 是什么?
  15. LangChain 中 Indexes and Retrievers 是什么?
  16. LangChain 中 Chat Message History 是什么?
  17. LangChain 中 Agents and Toolkits 是什么?
  18. LangChain 如何调用 LLMs 生成回复?
  19. LangChain 如何修改 提示模板?
  20. LangChain 如何链接多个组件处理一个特定的下游任务?
  21. LangChain 如何Embedding & vector store?

五、大模型参数高效微调(PEFT) 面试题

  1. 什么是 LoRA?
  2. LoRA 的思路是什么?
  3. LoRA 的特点是什么?
  4. QLoRA 的思路是怎么样的?
  5. QLoRA 的特点是什么?
  6. AdaLoRA 的思路是怎么样的?
  7. LoRA权重是否可以合入原模型?
  8. ChatGLM-6B LoRA后的权重多大?
  9. LoRA 微调优点是什么?
  10. LoRA微调方法为啥能加速训练?
  11. 如何在已有LoRA模型上继续训练?
  12. 为什么需要 提示学习(Prompting)?
  13. 什么是 提示学习(Prompting)?
  14. 提示学习(Prompting) 有什么优点?
  15. 提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?
  16. 为什么需要 P-tuning v2?
  17. 为什么需要 P-tuning?
  18. 为什么需要 指示微调(Prompt-tuning)?
  19. 指示微调(Prompt-tuning)与 Prefix-tuning 区别 是什么?
  20. 指示微调(Prompt-tuning)与 fine-tuning 区别 是什么?
  21. 为什么需要 前缀微调(Prefix-tuning)?
  22. 为什么 需要 适配器微调(Adapter-tuning)?
  23. 微调方法是啥?如何微调?
  24. 为什么需要 PEFT?
  25. 介绍一下 PEFT?
  26. PEFT 有什么优点?
  27. 微调方法批处理大小模式GPU显存速度?
  28. Peft 和 全量微调区别?
  29. 多种不同的高效微调方法对比
  30. PEFT 存在问题?
  31. 能不能总结一下各种参数高效微调方法?

六、大模型推理面试题

  1. 为什么大模型推理时显存涨的那么多还一直占着?
  2. 大模型在gpu和cpu上推理速度如何?
  3. 推理速度上,int8和fp16比起来怎么样?
  4. 大模型有推理能力吗?
  5. 大模型生成时的参数怎么设置?
  6. 有哪些省内存的大语言模型训练/微调/推理方法?
  7. 如何让大模型输出合规化
  8. 应用模式变更

七、大模型评测面试题

  1. 大模型怎么评测?
  2. 大模型的honest原则是如何实现的?
  3. 模型如何判断回答的知识是训练过的已知的知识,怎么训练这种能力?

八、大模型强化学习面试题

  1. 奖励模型需要和基础模型一致吗?
  2. RLHF 在实践过程中存在哪些不足?
  3. 如何解决 人工产生的偏好数据集成本较高,很难量产问题?
  4. 如何解决三个阶段的训练(SFT->RM->PPO)过程较长,更新迭代较慢问题?
  5. 如何解决 PPO 的训练过程同时存在4个模型(2训练,2推理),对计算资源的要求较高 问题?

九、大模型训练集面试题

  1. SFT(有监督微调)的数据集格式?
  2. RM(奖励模型)的数据格式?
  3. PPO(强化学习)的数据格式?
  4. 找数据集哪里找?
  5. 微调需要多少条数据?
  6. 有哪些大模型的训练集?
  7. 进行领域大模型预训练应用哪些数据集比较好?

十、大模型Agent 面试题

  1. 如何给LLM注入领域知识?
  2. 如果想要快速体验各种模型,该怎么办?

十一、Token及模型参数准备篇

  1. 预训练数据 Token 重复 是否影响 模型性能?
  2. SFT需要训练Token数?

十二、大模型位置编码篇

  1. 什么是 长度外推问题?
  2. 长度外推问题 的 解决方法 有哪些?
  3. 旋转位置编码 RoPE 思路是什么?
  4. 推导一下 旋转位置编码 RoPE ?
  5. 旋转位置编码 RoPE 有什么优点?
  6. 旋转位置编码 RoPE 被哪些 LLMs 应用?
  7. 什么是位置编码?
  8. 什么是绝对位置编码?
  9. 什么是相对位置编码?

十三、大模型 Tokenizer 篇

  1. Byte-Pair Encoding(BPE) 如何构建词典?
  2. WordPiece 与 BPE 异同点是什么?
  3. 简单介绍一下 SentencePiece 思路?
  4. 举例 介绍一下 不同 大模型LLMs 的分词方式?
  5. 介绍一下 不同 大模型LLMs 的分词方式 的区别?

十四、Layer Normalization 篇

  1. LLMs 各模型分别用了 哪种 Layer normalization?
  2. LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?
  3. Deep Norm 有什么优点?
  4. Layer Norm 的计算公式写一下?
  5. RMS Norm 的计算公式写一下?
  6. RMS Norm 相比于 Layer Norm 有什么特点?
  7. Deep Norm 思路?
  8. 写一下 Deep Norm 代码实现?

十五、大模型激活函数篇

  1. 介绍一下 FFN 块 计算公式?
  2. 介绍一下 GeLU 计算公式?
  3. 介绍一下 Swish 计算公式?
  4. 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?
  5. 介绍一下 使用 GeLU 的 GLU 块 计算公式?
  6. 介绍一下 使用 Swish 的 GLU 块 计算公式?
  7. 各LLMs 都使用哪种激活函数?
全部评论

相关推荐

真得说我这辈子也太好命了!居然能接连遇到俩神仙领导,简直是职场开挂级的幸运!第一任领导是我的职场引路人,真的把我护得明明白白!有好项目、优质客户,他永远第一个想到我,从来不会因为我资历最浅、职级最低就把我晾在一边。碰到那种蛮不讲理的离谱客户,他不只会站出来给我撑腰,还会耐下心帮我捋清楚情况、想解决办法;要是有部门同事敢欺负我,他立马就站出来替我出头,硬生生把那些歪心思都掐灭了,到后来没人敢再给我穿小鞋。后来我被他的上级(也就是我第二任领导)看中,相当于变相高升,他不光没半点不舍,还拍着胸脯说 “我永远是你的底气,新岗位要是待得不开心,随时回我这儿来”。结果我刚去新环境真就受了委屈,他知道后直接明着问 “谁胆子这么大,敢给我之前的人气受”,这话一出来,谁还敢造次啊!第二任领导更绝,是公司能排进前三的大领导,却把我当亲侄子一样疼!不管是商务饭局还是应酬,他从来不会让我喝酒,全程把我护得严严实实,就嘱咐我 “放开吃,吃高兴就行”。真有人不长眼敢来灌我酒,他当场就黑脸,直接怼回去 “我的人你也敢灌?”,他不光护着我,还真心实意带我成长,会跟我聊职场规则、人情世故,甚至教我那些行业里没人明说的潜规则,用他自己的资源和能量帮我避开了好多坑,少走了不知道多少弯路。工作上遇到搞不定的事,他一句话就能帮我摆平;有人敢欺负我,他照样第一时间站出来替我出头。他还会帮我做长远的职业规划,甚至主动跟相关部门打招呼为我铺路。私下里更没话说,会让我帮他做些私人小事(感觉是把我当自己人),记得我生日,还专门给我办生日派对、送礼物,甚至会帮我留意身边的异性,跟我分析哪个更适合进一步发展。有他在,我在公司里完全不用怕任何人,那种 “背后有人” 的绝对底气,真的太踏实了!
你想跟着什么样领导?
点赞 评论 收藏
分享
一、少量八股1.介绍下self-attention,计算其时间复杂度。2.为什么要用multi-head attention?3.kv cache是什么?它为什么能极大地提升推理速度?4.PPO的clip机制?在线强化学习和离线强化学习有什么区别?RLHF是哪一种?5.为什么要用reference model?为了解决什么问题?二、项目深挖1.如何让多个agent协同工作的?举个具体的协同机制例子。2.如果一个agent误判导致策略冲突,如何处理?3.你们有没有用到类似AutoGen或LangChain的框架?为什么选这个框架?4.你是怎么设计agent的记忆系统?5.长期记忆如何存储?如果历史记录量非常大,怎么优化查询效率?6.有没有做记忆衰退,避免旧数据干扰新任务?7.你们这种模块堆叠的架构是怎么设计视觉问答模块和动作模块的协同逻辑的?8.你简历里的人机协作流程,具体是什么意思?怎么设计人工干预与agent自动处理的平衡?9.human feedback是怎么被agent消化吸收的?有没有用rl进行策略更新?三、业务理解1.有没有做过模型压缩?比如在车载端或低端设备上的推理加速?2.如果量化后理解能力下降怎么办?怎么做精度补偿?3.你怎么处理响应速度与推理精度之间的tradeoff?是先召回再精排,还是单次生成?4.如果要做电商agent,你会选择哪些模态的信息作为输入?比如文本评论、图像、视频、购买记录?5.有没有做过A/B测试?
查看19道真题和解析
点赞 评论 收藏
分享
评论
16
88
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务