千寻智能面经
千寻智能
日常实习面经
第一场投错了面的算法岗,但是面试体验非常好,四场面试里面唯一开摄像头的一家公司。然后面试官实力很强,会引导式提问。
围绕qwenvl问了蛮多,例如chat template关于vl模型的一些特殊token。然后vit 做的是什么attention 我说crossattention,实际搞错了就是selfattention。然后关于怎么得到视觉token,给你一个24×24图像,怎么通过卷积得到16×16的输出,我背了卷积核那个公式,具体没算出来[失望R]。然后问了window attention,为什么要用window attention?我说为了更加具体关注到图片局部细节,然后同时能降低显存开销。vl模型中最慢的部分在哪里,我说是Vit,结合了之前干的AI图像重建的经验,当时测试时调整卷积和会导致速度大幅度变慢,所以觉得是Vit部分。
然后问了有没有做过训练相关的内容,我结合一些图像压缩重建的经历回答了,做过sft,然后设置学习率踩得一些坑。以及数据做归一化踩的坑。
最后还问了些推理加速的内容,经典kvcache,flashattention啥的。
至于简历上的项目基本没问[失望R]
最后手撕了单头attention
第二场被捞到部署了,本来因为阶跃挂了自闭了不想面了。但是面试官居然加我微信[哭惹R]说我的简历非常优秀,让我再面一场,泪目了。
然后被捞到部署组。聊了聊项目,也没怎么拷打,问了问遇到的最难的问题是什么,但是最后一个手撕二分查找我写了20mins,泪目了。然后挂了,得到的评价是项目技术没问题,但是coding有待加强。我发誓以后天天刷hot100[失望R]。感觉到手的offer飞了[哭惹R]我是🐷啊
日常实习面经
第一场投错了面的算法岗,但是面试体验非常好,四场面试里面唯一开摄像头的一家公司。然后面试官实力很强,会引导式提问。
围绕qwenvl问了蛮多,例如chat template关于vl模型的一些特殊token。然后vit 做的是什么attention 我说crossattention,实际搞错了就是selfattention。然后关于怎么得到视觉token,给你一个24×24图像,怎么通过卷积得到16×16的输出,我背了卷积核那个公式,具体没算出来[失望R]。然后问了window attention,为什么要用window attention?我说为了更加具体关注到图片局部细节,然后同时能降低显存开销。vl模型中最慢的部分在哪里,我说是Vit,结合了之前干的AI图像重建的经验,当时测试时调整卷积和会导致速度大幅度变慢,所以觉得是Vit部分。
然后问了有没有做过训练相关的内容,我结合一些图像压缩重建的经历回答了,做过sft,然后设置学习率踩得一些坑。以及数据做归一化踩的坑。
最后还问了些推理加速的内容,经典kvcache,flashattention啥的。
至于简历上的项目基本没问[失望R]
最后手撕了单头attention
第二场被捞到部署了,本来因为阶跃挂了自闭了不想面了。但是面试官居然加我微信[哭惹R]说我的简历非常优秀,让我再面一场,泪目了。
然后被捞到部署组。聊了聊项目,也没怎么拷打,问了问遇到的最难的问题是什么,但是最后一个手撕二分查找我写了20mins,泪目了。然后挂了,得到的评价是项目技术没问题,但是coding有待加强。我发誓以后天天刷hot100[失望R]。感觉到手的offer飞了[哭惹R]我是🐷啊
全部评论
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享
查看7道真题和解析