掌趣科技内推
游戏公司-掌趣科技
公众号搜:掌趣科技
内推码:NTA58Uj
评论区留下【姓名缩写+岗位缩写】或者后台dd我,我会多多留意进程的~
公众号搜:掌趣科技
内推码:NTA58Uj
评论区留下【姓名缩写+岗位缩写】或者后台dd我,我会多多留意进程的~
全部评论
lph+证券专员,感谢内推😁
每个工作日都有上线,需要知道具体情况可私~
jyj+游戏测试工程师,感谢,非常感谢
wq+服务端开发
zhf+游戏服务端开发工程师,感谢!
xyl+游戏服务端开发工程师
yhm + 游戏客户端开发工程师 已投递,非常感谢
hjk--游戏客户端开发工程师,已投,感谢
qwj 游戏客户端开发,感谢
wgh + 游戏测试工程师
thj+游戏客户端 已投
ht+游戏测试
ywt + 游戏服务端开发工程师
wz + 游戏服务端开发工程师
jcx+游戏客户端秋招,感谢内推
Zhx战斗策划
已投递
hwx+系统运维工程师
lhf+服务端开发/客户端开发
kxt + 游戏客户端开发 感谢大佬分享
相关推荐
2025-12-17 18:14
华南师范大学 Java 点赞 评论 收藏
分享
2025-12-16 18:08
北京科技大学 Java 点赞 评论 收藏
分享
八股战士0offer:虽然但是,你想表达的应该是学习如何agent工程里的提示词工程,而不是训练或者微调模型,这基本上是两个不同的方向。我认为学习agent主要就两个东西:提示词工程和上下文工程。像你说的prompt caching这种优化怎么能想到,建议多读大模型供应商尤其是anthropic的博客,anthropic大概一年前就有很详细的博客讲最佳实践和实现了 
点赞 评论 收藏
分享
