原力灵机内推,原力灵机内推码

旷视科技 MegEagle计划 大模型 一面面经

整体56分钟,算是提前批,岗位是视觉/语言大模型算法研究员

1.自我介绍

2.拷打实习项目,先介绍了一下实习的业务背景,我的是一个智能npc的,我讲了模型训练、数据处理、调优探索几个方面,他问我让模型更加遵循人设是怎么做的、数据分布是怎么调的、评估是怎么做的,然后问我deepspeed原理、vllm原理、kvcache原理

3.拷打第一个项目,我的是一个rag的项目,我先整体讲了一下,然后他问我向量模型选的哪个、为什么不选别的、向量数据库选的哪个、还知道哪些、模型幻觉的解决有什么方法、模型长上下文解决的方法,我各答了我的理解

4.拷打论文项目,我把我论文讲了一遍,讲的时间有点长,他没问啥问题

5.代码题,他临时想出来的,说给定一个json串,写一段代码进行大中小括号、单引号和双引号的匹配检查,我用栈做的,做出来之后其实会在引号那里有bug,但是跑了样例他没看出来;然后问我假如说想做成一个直接把它改成正确的,该怎么做,我说了一下我的理解

6.反问,问部门做什么的,说是预研部门,是具身智能的,大小模型协同,应该是类似于agent

旷视科技2026届校招启动!今年分为三大业务公司招聘

分别是【原力灵机-机器人】【极感-影像】【千里智驾-自动驾驶】

内推码共用:DSfnuT4Y(内推简历优先筛选)三个业务公司都可以投递~

详细内推信息如下:

1、原力灵机公司(机器人方向,base:北京,成都)

【投递链接】https://app.mokahr.com/campus-recruitment/megviihr/150777?recommendCode=DSfnuT4Y#/jobs

2、极感科技公司(影像方向,base:北京、上海、成都)

【投递链接】https://app.mokahr.com/campus-recruitment/megviihr/150777?recommendCode=DSfnuT4Y#/jobs

3、千里智驾(自动驾驶方向,base:北京,上海)

【投递链接】https://app.mokahr.com/campus-recruitment/megviihr/150777?recommendCode=DSfnuT4Y#/jobs

分业务公司机会更多,具体不同业务公司岗位点链接查看,算法研发类的同学建议三个公司都投递

分业务公司机会更多,具体不同业务公司岗位点链接查看,算法研发类的同学建议三个公司都投递

引流:字节跳动,海康威视,深信服,腾讯,阿里巴巴,拼多多,滴滴,京东,小米,大疆,美团,好未来,小红书,华为,简历,offer,面试,面经,三方,国企,央企,秋招,应届生,求职,比亚迪,建设银行,工商银行,百度,中兴,邮储、中行、建行、工行、建行、光大、招商银行、科大讯飞、蔚来、新华三、京东方、容知日新、长鑫存储、阳光电源、中国移动、中国电信、中国联通,中兴,虾皮,网易,腾讯音乐,京东,虎牙,b站,bigo,思科,亚马逊,荣耀,小米,联想,tplink,第四范式,米哈游,携程,旷视,美的,索尼,OPPO,满帮,momenta,欢聚,shein,用友,哈啰,vivo,完美世界,地平线,爱奇艺,汇顶,得物,深睿医疗,全志科技,禾赛,唯品会,度小满,蔚来,度小满,蔚来

#牛友职场人脉来了#
全部评论

相关推荐

1.你这个xx实习的项目能展开讲讲吗?你主要负责哪块?为什么是你来做这块?2.自动化评估体系这里能具体说说怎么评的吗?哪些维度3. 多维度自动化评估体系,那每一个维度是怎么做的?比如你说的关键词匹配和问答对,这个流程怎么构建的4.图表的准确性你怎么评估的?怎么从markdown和HTML 里提取对应图表并比对的?有没有一些异常case举个例子?5.用了playwright去截图,那遇到报错或者渲染失败怎么办6不同设备模块比如交换机、服务器,它们的字段特征都不一样,那你怎么做统一化训练7.那你这个知识图谱底层是用什么数据结构存的8.用的是PAI吗?那有没有对比过比如说 igraph或者图数据库像GraphScope这些之间有啥区别9有没有用过一些大模型的推理?比如说用千问做辅助根因预测10你们这套系统的准确率和召回率大概是多少,那比如说没有到90%,你们是认为这个指标是OK的吗11所以它是系统推理出根因之后还需要人工check,然后才能执行故障预案,有没有哪一部分流程是完全自动化的12你们平台现在接的主要是底层设备指标,那有没有接入一些业务指标,比如订单失败率转化率这类的业务数据13我有个疑问就接入业务指标的话你需要知道整个平台的服务拓扑,那你们这个平台是怎么接入业务侧拓扑的?是自己做的吗?还是中台团队负责15.那你既然用过图数据库,你知道它底层的存储结构是怎样的吗?比如它是怎么组织边和节点的16.我们现在是两阶段推荐架构:第一阶段召回用的是embedding点积召回,第二阶段是MLP跟transformer做多目标打分。那你觉得在我们这么大规模的数据量下,如果要做real-time re-ranking,你会在架构上怎么做trade-off?怎么压低latency17.我们现在在做embedding精度提升也试过加cross tower、attention pooling 甚至meta learning,但发现一旦模型重了,就难以部署到线上实时系统。那你觉得在embedding learning的这个模块里,有哪些方案能在不严重影响线上性能的情况下提升语义表示能力
点赞 评论 收藏
分享
1. 实习介绍2. 挑一个你最熟悉的大模型项目,讲讲它的目标,你主要负责什么,以及你觉得最有意思的技术点。3. 在Transformer的Decoder里,我们为什么需要用Mask把未来的信息“遮住”?从代码实现上讲,这个Mask具体是怎么作用在Self-Attention分数上的?4. 关于LayerNorm放在残差连接的“前面”还是“后面”(Pre-LN vs Post-LN),社区里有很多讨论。这两种设计选择,主要会影响训练过程的哪些方面?你更倾向于哪一种,为什么?5. 我们要在线上部署一个大模型提供服务,推理速度和吞吐量是个大问题。像vLLM这样的工具,它主要是通过什么核心思想(比如PagedAttention)来解决KV Cache的内存问题,从而提升推理效率的?6. 我们有一个基础模型,但它不太会“听人话”。如果想把它训练成一个能很好遵循指令的聊天助手,通常有几步?能简单说说SFT(监督微调)和基于人类反馈的对齐(比如PPO/DPO)分别是在解决什么问题吗?7. 假设我们有一个效果很好的70B大模型,但因为太大太慢,没法直接上线。现在需要你把它“变小变快”。你会考虑用哪些方法(比如剪枝、量化)?各自有什么优缺点?8. 相比于让大模型直接回答问题,现在很流行的RAG(检索增强生成)方案,它最大的好处是什么?主要解决了什么痛点?9. 我们的RAG系统上线后,发现有时候还是会“胡说八道”,或者答非所问。如果让你去排查,你会从哪些方面入手?(比如是检索模块没找对,还是生成模块没理解好?)10. 核心代码模式算法题:二叉树的中序遍历11. 反问
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务