小米的内推有用吗

都说现在小米内推是wt的内推码,搞得我网上找的内推码都不敢用了

全部评论

相关推荐

1.请详细解释一下Transformer模型中的自注意力机制是如何工作的?它为什么比 RNN 更适合处理长序列?2.什么是位置编码?在Transformer中,为什么它是必需的?请列举至少两种实现方式。3.请你详细介绍ROPE,对比绝对位置编码它的优劣势分别是什么?4.你知道MHA,MQA,GQA的区别吗?详细解释一下。5.请比较一下几种常见的LLM 架构,例如Encoder-Only, Decoder-Only, 和 Encoder-Decoder,并说明它们各自最擅长的任务类型。6.什么是Scaling Laws?它揭示了模型性能、计算量和数据量之间的什么关系?这对LLM的研发有什么指导意义?7.在LLM的推理阶段,有哪些常见的解码策略?请解释Greedy Search, Beam Search, Top-K Sampling 和Nucleus Sampling (Top-P) 的原理和优缺点。8.什么是词元化?请比较一下BPE和WordPiece 这两种主流的子词切分算法。9.你觉得NLP和LLM最大的区别是什么?两者有何共同和不同之处?10.“涌现能力”是大型模型中一个备受关注的现象,请问你如何理解这个概念?它通常在模型规模达到什么程度时出现?11.激活函数有了解吗,你知道哪些LLM常用的激活函数?为什么选用它?12.混合专家模型(MoE)是如何在不显著增加推理成本的情况下,有效扩大模型参数规模的?请简述其工作原理。13.在训练一个百或千亿参数级别的LLM 时,你会面临哪些主要的工程和算法挑战?(例如:显存、通信、训练不稳定性等)14.开源框架了解过哪些?Qwen,Deepseek的论文是否有研读过,说一下其中的创新点主要体现在哪?15.最近读过哪些LLM比较前沿的论文,聊一下它的相关方法,针对什么问题,提出了什么方法,对比实验有哪些?
查看15道真题和解析
点赞 评论 收藏
分享
2026年1月21日下午,这是目前经过的最难受的一次面试,也是面试官较为抽象,比较难评。我原本就有点黑节子(看到网上之前有人说负面评论被影响),这次本来就没有投递,hr看到以前的简历来找的我面试,想着面着试试手毕竟实习结束后也很久没有面试了。开场:面试官貌似不知道这是啥岗位,问我是校招还是实习。。。。你们招的人你不知道吗?我请问了。自我介绍:开局就疯狂打断。刚说完名字和学校就打断了,说后面再说,开始面试把(在这里演我了,打断别人真的很没有素质的ok,在这里我就不想面了)开始问实习经历:我介绍了在前司做的事情,面试官听了一边说嗯。然后问我背景是啥,我说完了,又问我你刚刚说做了啥事情来着。。。。。。。。。 又介绍了一遍,开始上压力,问怎么做的,然后给我引起了另外一个他觉得相关的领域,我先说了这个领域不太熟悉,他说没事,现在想嘛。然后把我整个在实习中的问题带去不熟悉的地方,开始不断问还可以如何优化系统,大概想了几种答案。回复:可以但是不够好,最后貌似也没有给我答案。开始问数据库,也是抽象完了,问数据库为啥要用,索引实现原理(这个我会,不多说),然后问为啥索引要用这个原理,以一种从来没听过的方式问我,其实我答案在前面说了,但是又反复问,给我整不会了,全程完全脱离简历问。最后说答案我其实都知道,但是我知识有点散,要穿起来。回答:谢谢面试官,我会注意的。手撕无,问智力题。引导我回答,这点点个赞,but时间到了,让我自己想想,没给反问机会,直接断面试。体验:奇差无比,而且hr面试前跟我说了好几次,这个不是传统后端,是后端+ai agent。本人有大量ai agent工程和科研经验,所以才答应面试看看。结果啥都没问,问的也是抽象。貌似或者说根本没提前看过我简历,面试来也是迟到。并且感觉刚经历高强度工作很疲累。黑完了。
查看9道真题和解析
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务