26校招 高德Agent算法二面 1h

1.比较一下几种常见的LLM架构,例如Encoder-0nly, Decoder-Only 和 Encoder-Decoder,并说明它们各自最擅长的任务类型。
2.ReAct框架的核心思想是什么?为什么它比纯prompting在复杂任务上表现更好?
3.Function Calling 和 Toolformer 的本质区别是什么?各自在训练/推理阶段如何工作?
4.如果让你设计一个能行程规划的旅行Agent,你会如何拆解任务?各子Agent职责怎么划分?
5.你的Agent如何处理工具调用失败(如API超时、返回空)?有设计重试、降级或用户澄清机制吗?
6.在真实场景中,如何防止Agent泄露用户隐私或越权操作?从算法和系统层面谈谈你的设计。
7.如果用户连续追问“为什么选这家酒店?”,Agent如何回溯决策链并给出可解释理由?
8.如何评估一个Agent系统的鲁棒性?除了准确率,还会测试哪些对抗性或边缘case?
全部评论

相关推荐

1.自我介绍;2.本科毕设项目介绍;3.Retinaface和Facenet的具体网络模型;4.Retinaface是如何检测人脸的,Facenet是如何识别人脸的;5.项目的创新点有什么,评判指标是什么;6.检测和识别用的时间,其中esp8266,mg996r分别是做什么用的;7.大模型量化比赛项目介绍;8.AWQ和GPTQ是什么;9.什么模型适合用AWQ,什么模型适合用GPTQ;10.其中最优的参数是怎么得到的;11.llm- benchmarker怎么用的,是什么评判指标;12.了解算子吗?(marlin kernel)详细说一下这个算子是什么;13.除了量化其他的方法了解吗?(压缩、减枝、LoRA)14.LoRA是什么;QLoRA是什么?为什么要用LoRA;15.具体的原理是怎么样的;16.如何将LoRA结合到TransFormer各个层?17.介绍一下TransFormer的架构;18.Encoder和Decoder是由什么组成的;19.MHA细节是怎么样的(QKV),softmax是干什么用的;20.单头注意力和多头注意力有什么区别;21.为什么MHA下面要除根号d;22.潜在多头注意力了解吗,多头注意力的作用;23.FFN详细说一下;24.残差链接有什么用;25.Layer Normalization有什么用;26.Layer Normalization和Batch  Normalization的区别;27.Qwen3的基础架构是怎么样的;28.Qwen3和Qwen2.5相比有什么区别;29.Qwen3和DeepSeek有多少个头;30.大模型要训练出思维链应该如何训练;31.如何平衡精度和推理速度,怎么做trade off的;32.了解Agent吗,做过什么agent项目33.Dense模型是什么;34.MoE、MLA是什么,详细讲一下;35.LoRA的偏置矩阵详细说一下,为什么LoRA初始化A要正态分布,B要初始化为0;36.秩是什么意思;怎么理解;37.Qwen3哪里做的好;38.快手实习项目介绍;39.经纬恒润实习项目介绍;40.了解量化交易吗;41.你平时做交易是趋势还是阶段?------二更已oc
你最近因为什么迷茫?
点赞 评论 收藏
分享
评论
3
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务