得物搜索算法日常实习面经

1.为什么从工程管理跨考到软件工程
2.看你排名挺高的 你是怎么做的这个比赛
3.热度召回怎么做的,会不会有未来时间的缺失 为什么采用前后一小时,数据集是怎么样的,总共有多少篇文章
4.介绍 word2Vec你具体是怎么做的 为什么用物品ID 序列来做
5.排序模型尝试了哪些
6.特征工程怎么做的
7.lightgbm为什么会比其他模型效果好
8.为什么决策树比 LR的效果好 给你一颗八层的决策树 除了信息熵以外还有什么判断特征重要性的方法
9.Transformer基本结构
10.attention的作用
11.多头注意力对比其他的注意力的优点在哪手撕:MHA 问为什么除以根号dk
反问:业务,实习生待遇(去问hr)
全部评论

相关推荐

1.你这个xx实习的项目能展开讲讲吗?你主要负责哪块?为什么是你来做这块?2.自动化评估体系这里能具体说说怎么评的吗?哪些维度3. 多维度自动化评估体系,那每一个维度是怎么做的?比如你说的关键词匹配和问答对,这个流程怎么构建的4.图表的准确性你怎么评估的?怎么从markdown和HTML 里提取对应图表并比对的?有没有一些异常case举个例子?5.用了playwright去截图,那遇到报错或者渲染失败怎么办6不同设备模块比如交换机、服务器,它们的字段特征都不一样,那你怎么做统一化训练7.那你这个知识图谱底层是用什么数据结构存的8.用的是PAI吗?那有没有对比过比如说 igraph或者图数据库像GraphScope这些之间有啥区别9有没有用过一些大模型的推理?比如说用千问做辅助根因预测10你们这套系统的准确率和召回率大概是多少,那比如说没有到90%,你们是认为这个指标是OK的吗11所以它是系统推理出根因之后还需要人工check,然后才能执行故障预案,有没有哪一部分流程是完全自动化的12你们平台现在接的主要是底层设备指标,那有没有接入一些业务指标,比如订单失败率转化率这类的业务数据13我有个疑问就接入业务指标的话你需要知道整个平台的服务拓扑,那你们这个平台是怎么接入业务侧拓扑的?是自己做的吗?还是中台团队负责15.那你既然用过图数据库,你知道它底层的存储结构是怎样的吗?比如它是怎么组织边和节点的16.我们现在是两阶段推荐架构:第一阶段召回用的是embedding点积召回,第二阶段是MLP跟transformer做多目标打分。那你觉得在我们这么大规模的数据量下,如果要做real-time re-ranking,你会在架构上怎么做trade-off?怎么压低latency17.我们现在在做embedding精度提升也试过加cross tower、attention pooling 甚至meta learning,但发现一旦模型重了,就难以部署到线上实时系统。那你觉得在embedding learning的这个模块里,有哪些方案能在不严重影响线上性能的情况下提升语义表示能力
点赞 评论 收藏
分享
1. 实习介绍2. 挑一个你最熟悉的大模型项目,讲讲它的目标,你主要负责什么,以及你觉得最有意思的技术点。3. 在Transformer的Decoder里,我们为什么需要用Mask把未来的信息“遮住”?从代码实现上讲,这个Mask具体是怎么作用在Self-Attention分数上的?4. 关于LayerNorm放在残差连接的“前面”还是“后面”(Pre-LN vs Post-LN),社区里有很多讨论。这两种设计选择,主要会影响训练过程的哪些方面?你更倾向于哪一种,为什么?5. 我们要在线上部署一个大模型提供服务,推理速度和吞吐量是个大问题。像vLLM这样的工具,它主要是通过什么核心思想(比如PagedAttention)来解决KV Cache的内存问题,从而提升推理效率的?6. 我们有一个基础模型,但它不太会“听人话”。如果想把它训练成一个能很好遵循指令的聊天助手,通常有几步?能简单说说SFT(监督微调)和基于人类反馈的对齐(比如PPO/DPO)分别是在解决什么问题吗?7. 假设我们有一个效果很好的70B大模型,但因为太大太慢,没法直接上线。现在需要你把它“变小变快”。你会考虑用哪些方法(比如剪枝、量化)?各自有什么优缺点?8. 相比于让大模型直接回答问题,现在很流行的RAG(检索增强生成)方案,它最大的好处是什么?主要解决了什么痛点?9. 我们的RAG系统上线后,发现有时候还是会“胡说八道”,或者答非所问。如果让你去排查,你会从哪些方面入手?(比如是检索模块没找对,还是生成模块没理解好?)10. 核心代码模式算法题:二叉树的中序遍历11. 反问
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务