字节AML高性能计算提前批一面经

1,25分钟简历+项目周边八股,开始面了之后才知道现在都all in 大模型了,看到我简历上有大模型相关的就狂问大模型训练、微调、分布式等等细节,之前准备的高性能八股一点没问。。。
2,算法题是手撕attention算子,只用写前向不用写反向,基于numpy实现,还需要自己手写softmax,这个我之前看过llama的推理源码,能回忆起来一些,大致写出来了,但是v的shape有一些问题,最终跑通了但是shape不太对,面试官扫了一遍让我讲讲,讲完就完事了。

目前等结果,希望能过,对于我这种菜鸡来说提前批能多面一次就是胜利。

更新:三面完了,被主管吊打,感觉要g
全部评论
大哥。高性能八股是啥?哪里能看,能推一下吗?
6 回复 分享
发布于 2023-07-20 20:59 湖北
同求高性能八股
3 回复 分享
发布于 2023-07-21 19:11 澳大利亚
大佬您好,请问二面了吗
2 回复 分享
发布于 2023-08-02 14:55 辽宁
啊这 这面试官也是追风口吗
1 回复 分享
发布于 2023-07-21 17:04 江苏
大佬稳的
1 回复 分享
发布于 2023-07-21 08:19 北京
为什么你的手撕这么难
点赞 回复 分享
发布于 09-11 15:22 北京
大佬,求高性能八股
点赞 回复 分享
发布于 04-23 19:02 安徽
求高性能八股
点赞 回复 分享
发布于 02-21 08:32 北京
求高性能八股
点赞 回复 分享
发布于 01-23 19:17 广西
求高性能八股
点赞 回复 分享
发布于 2024-08-19 16:24 重庆
大佬,求高性能八股
点赞 回复 分享
发布于 2024-05-15 21:24 波兰
求高性能八股
点赞 回复 分享
发布于 2024-03-06 18:13 香港
求高性能八股
点赞 回复 分享
发布于 2024-02-26 17:54 江苏
求高性能八股
点赞 回复 分享
发布于 2024-02-25 23:49 上海
大哥。高性能八股是啥?哪里能看,能推一下吗?
点赞 回复 分享
发布于 2024-02-20 14:18 北京
同求高性能八股,谢谢佬!
点赞 回复 分享
发布于 2024-01-11 22:23 北京
求高性能八股
点赞 回复 分享
发布于 2024-01-08 14:34 北京
求高性能八股
点赞 回复 分享
发布于 2023-12-26 15:32 广东
是aml推理部门吗
点赞 回复 分享
发布于 2023-10-25 22:53 广东
求高性能八股
点赞 回复 分享
发布于 2023-09-15 21:18 北京

相关推荐

【实习】大模型强化学习基建与算法研发实习生📍 地点: [北京/上海/深圳] ⏱️ 形式: 实习(建议至少 3-6 个月)岗位职责 (Responsibilities)作为大模型基建团队的核心成员,你将参与最前沿的多模态大模型(VLM)后训练体系建设。你将直面大规模强化学习训练中的算法与系统挑战,核心职责包括:多模态工具调用能力建设: 负责多模态模型在 Tool Use / Function Calling 场景下的后训练(Post-training)流程搭建与优化,通过 SFT 及 RL 提升模型对复杂工具的理解与调用准确率。强化学习算法优化: 深入研究并改进主流对齐算法,针对多模态数据特性设计强化学习算法策略,解决奖励稀疏与训练不稳定问题。训练系统基建与性能调优: 参与大规模分布式强化学习训练框架的研发与维护,负责显存优化、通信优化及流水线并行策略调优,提升训练吞吐量与稳定性。前沿技术探索: 跟踪大模型多模态推理的最新论文,并将前沿算法快速复现并落地到内部基建中。任职要求 (Qualifications)学历背景: 计算机、人工智能、数学等相关专业硕士或博士在读,具有扎实的机器学习/深度学习理论基础。代码能力: 精通 Python 编程,熟练使用 PyTorch,具有优秀的代码风格和工程实现能力。算法基础:深入理解 Transformer 架构及 LLM/VLM 基本原理。熟悉强化学习基本理论,理解强化学习算法细节。加分项 (Preferred Qualifications):工具调用经验: 有 LLM Tool Learning、Agent 或 ReAct 相关的实战经验。基建经验: 熟悉 DeepSpeed, Megatron-LM, vLLM, Ray 等分布式训练/推理框架源码,或有 CUDA 算子优化经验。多模态经验: 熟悉 LLaVA, Qwen-VL 等多模态模型架构。开源/学术: 在顶级会议发表过论文,或在 Hugging Face / GitHub 有高 Star 开源项目贡献。
投递百度等公司6个岗位
点赞 评论 收藏
分享
1.你的 Agent 系统Prompt 是怎么设计和迭代的?有没有做过 Prompt 自动优化?当用户提出不完整的请求时,如何补全用户意图的?2.构建 Agent 的时候,遇到过哪些瓶颈?LangChain 的 memory 默认机制在多3.用户并发中怎么做隔离?你是如何保证线程安全的?4.微调 Llama2 你是怎么选择训练样本的?清洗逻辑是什么?你有没有观察到哪些训练样本质量问题对模型行为有很大影响?举例说明。5.DPO相比 SFT,有哪些优劣?它在 Agent 任务上效果提升明显吗?你怎么构造偏好对?构造逻辑是自动的还是人工?6.你说你服务部署在 vLLM 上,为何选择它?KV-cache 如何帮助推理加速?你自己做过哪些优化?7.假如需要支持 Streaming 输出,但当前服务延迟又超标,你会怎么折中设计?8.多轮对话上下文状态管理是如何做的?如何在高并发场景下保证一致性?9.你做的 Agent 使用了多少个外部工具,在调用链条上如何保障故障容错和超时机制?10.有没有做过工具调用失败后的feedback策略设计?11.训练过程中数据来自用户行为日志,你是如何从这些数据中抽取训练对话的?有没有做过归一化或事件抽象?12.有没有了解过带有时间窗口/偏移限制的对话系统?模型怎么“理解时间”?13.你觉得 Agent 哪些模块最容易在真实业务中出问题?你会如何监控和定位的?
点赞 评论 收藏
分享
评论
15
110
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务