腾讯大模型面经分享 攒人品中..

1.实习介绍
2.大模型微调框架:您在微调大模型时使用过哪些框架(如LoRA、QLoRA等)?请结合实际场景说明选择依据。
3.CLIP优化:CLIP模型的zero-shot能力是如何实现的?请从模型设计和训练策略角度分析,并提出改进其跨模态检索效果的方案。
4.归一化层差异:Transformer中Pre-Norm和Post-Norm的设计差异是什么?对模型训练稳定性和性能有何影响?
5.模型架构选型:在生成式大模型(如LLaMA、GPT)中,为何通常采用Decoder-only架构而非Encoder-Decoder结构?
6.自然语言理解实现:请描述大模型中自然语言理解模块的具体实现方案,包括语义解析和意图识别的关键技术。
7.Transformer推理加速:针对Transformer模型推理过程,您会采用哪些优化手段(如KV Cache、算子融合等)?请说明原理及收益。
8.RAG技术:请阐述检索增强生成(RAG)的核心原理,并说明如何通过RAG缓解大模型的幻觉问题。
9.vLLM优化:vLLM框架的核心优化原理是什么?其在动态批处理(Dynamic Batching)和显存管理上有哪些创新设计?
10.对齐算法对比:请对比RLHF、PPO、DPO算法的技术差异、优缺点及适用场景
全部评论

相关推荐

评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务