切片切的好,token消耗少
点赞 评论

相关推荐

一面: 1. 自我介绍,讲论文和实习。2. Transformer自注意力机制、位置编码、梯度消失/爆炸的解决方案。3. 微调方法对比(Full Fine-tuning vs. LoRA/Adapter/P-Tuning)。4. 推理加速技术(量化、动态批处理、FlashAttention)。5. 如何优化大模型在长文本生成中的显存占用?6. RLHF中奖励模型(RM)的训练数据如何构建?7. 为网易云音乐设计一个AI歌词生成系统,如何提升创意性和押韵效果?8. 模型剪枝/量化(GPTQ、AWQ)、服务化框架(FastAPI+vLLM)。9. 如何解决大模型API服务的响应延迟问题?一面八股挺多的,问的知识点也非常多,主要考察对大模型的理解,整体来说难度不算大,复习熟记八股应该都比较好答。二面:1. 自我介绍,讲论文和实习。2. LayerNorm和BatchNorm在大模型中的区别?为什么Transformer用LayerNorm?3. 解释大模型训练中的“灾难性遗忘”现象及解决方法。4. 如果微调后的模型过拟合,你会如何调整?5. 如何评估一个对话系统的生成质量?6. 如何用大模型提升网易新闻的推荐效率?7. 设计一个游戏内AI陪玩系统,需考虑哪些模块?8. 领域适配时,如何构建高质量的垂域训练集?9. 你在项目中如何解决数据稀缺问题?10. 模型上线后遇到了什么性能瓶颈?如何优化的?建议:精读《Attention Is All You Need》、HuggingFace文档。如果没有大模型项目,可用Kaggle/开源项目复现(如LangChain应用)。
查看18道真题和解析
点赞 评论 收藏
分享
牛客网
牛客网在线编程
牛客网题解
牛客企业服务