美的校招内推,有问题的宝子可以找我
连续三年美的校园大使MVP,助力宝子们成功上岸!
🍰幸运内推码:M8693G
🔥内推方法:
在填写“应聘信息获取渠道”时,选择内部推荐-MVP推荐,填写推荐码(内推码图在p1)
🎆或直接p1扫码跳转投递界面
p2-p4附上美的任职证明,随时帮忙查进度!
🌸可对话校招hr,评论区提问,我一一回答!
尽力帮助大家顺利进入面试!
预祝大家秋招offer拿到手软~ #美的集团有限公司# #内推26届校招# #内推直通车#
🍰幸运内推码:M8693G
🔥内推方法:
在填写“应聘信息获取渠道”时,选择内部推荐-MVP推荐,填写推荐码(内推码图在p1)
🎆或直接p1扫码跳转投递界面
p2-p4附上美的任职证明,随时帮忙查进度!
🌸可对话校招hr,评论区提问,我一一回答!
尽力帮助大家顺利进入面试!
预祝大家秋招offer拿到手软~ #美的集团有限公司# #内推26届校招# #内推直通车#
全部评论
相关推荐
点赞 评论 收藏
分享
_世界和平:可以偷偷吃肉,但是不要在饥饿的人面前一边吃肉一边吧唧嘴还嫌肉不好吃 点赞 评论 收藏
分享
八股战士0offer:虽然但是,你想表达的应该是学习如何agent工程里的提示词工程,而不是训练或者微调模型,这基本上是两个不同的方向。我认为学习agent主要就两个东西:提示词工程和上下文工程。像你说的prompt caching这种优化怎么能想到,建议多读大模型供应商尤其是anthropic的博客,anthropic大概一年前就有很详细的博客讲最佳实践和实现了 
点赞 评论 收藏
分享
查看20道真题和解析