蚂蚁智能化应用开发二面面经

1、自我介绍
2、聊了一下工作地点,职业规划
3、简单问了下实习
4、是否有系统性地学习过机器学习或深度学习课程?大模型相关的算法背景和理论知识是如何构建的?
5、具体说明你在大模型领域学习了哪些内容,以及是如何学习的
6、讲一下你对强化学习的了解
7、除了RLHF,是否了解强化学习中的其他具体算法(Q-learning、策略梯度等)
8、这些强化学习算法与大模型中的强化学习是什么关系?
9、了解PPO算法吗?
10、谈谈对目前主流大模型的认识以及底层架构
11、DeepSeek在哪些方面做了改进使其训练成本显著降低?
12、GRPO算法了解吗?
13、微调、预训练和强化学习三者在训练目标、数据构造、训练算法和优化思路上的区别与联系?
14、你的项目中,微调要解决的具体问题是什么?
15、微调具体使用的是哪些模型,选择时是如何考虑的
16、你的训练集规模多大?是否是全人工生成的?能否展示一条具体的训练样本
17、如何评估和保证微调后模型输出的代码的正确性?评测指标和具体方法是什么?
18、你提到正确率微调后提升了很多,在这个过程中具体做了哪些调优工作
19、Agent项目是基于什么平台或框架实现的
20、反问
全部评论
这是开发?这不是算法
1 回复 分享
发布于 10-18 16:49 上海

相关推荐

算法岗越来越卷,还在纠结简历写什么? 拒绝千篇一律的“minist手写数字识别”! 今天盘点 3 个不同技术方向的硬核项目,建议根据自己的赛道,选一个死磕到底!👇1️⃣ 【LLM 应用赛道】—— 紧跟风口  📂 项目:基于 LangChain + RAG 的垂直领域问答助手为什么做: 现在 10 家面试 8 家问大模型。不懂 RAG(检索增强生成)真的很难聊!核心考点: 向量数据库 (Milvus/Faiss)、Prompt Engineering、文档切片策略、甚至 LoRA 微调。一句话亮点: “解决了大模型幻觉问题,实现了基于本地私有数据的精准问答。”2️⃣ 【硬核基建赛道】—— 专治手痒  📂 项目:从零手撸 Transformer (Pytorch复现)为什么做: 别只做“调包侠”!面试问 Multi-head Attention 细节又又又卡壳了?核心考点: Self-Attention 矩阵计算、Positional Encoding 原理、Mask 机制。一句话亮点: “不依赖高级 API,从底层张量运算构建模型,深入理解 Attention 机制。”3️⃣ 【AIGC 视觉赛道】—— 视觉魔法  📂 项目:Stable Diffusion 扩散模型复现与 LoRA 微调为什么做: CV 岗已经从“识别”卷到了“生成”。不要再玩那个YOLO !核心考点: DDPM/DDIM 采样原理、UNet 结构(mile-stone)、CLIP 多模态对齐、ControlNet 控制生成。一句话亮点: “掌握 AIGC 核心流派,具备模型微调与可控图像生成能力。”💡 最后的小建议: 项目在精不在多。 与其罗列 多 个 Demo,不如把其中一个吃透,把遇到的 Corner Case、性能优化、思考过程写进简历里。
一人推荐一个值得做的项目
点赞 评论 收藏
分享
评论
点赞
15
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务