24届开始准备社招了吗

我是24年毕业的硕士应届生,工作已经一年多一个多月了。
同实验室的同门一个7月深圳百度跳北京字节做大大模型,一个八月北京跳槽游戏涨幅23%。
公司里同24届的同事,一个去了深圳字节,一个去了杭州阿里涨幅25%,一个被裁一个月找到了工作。
以前觉得离家远近不是很重要,但是最近家里不是很太平,离家近点会方便一些。

所以目前在筹备跳槽,希望从北京回到杭州上海附近。

问了同学和同事,一个准备两礼拜,两个准备了一个半月左右。我和自己定8周的目标,10月后开始投简历。

全部评论
佬我也是一年准备投了
2 回复 分享
发布于 08-19 09:15 上海
尊强呀
1 回复 分享
发布于 08-17 22:58 北京
加油老铁,祝愿上岸
1 回复 分享
发布于 08-17 12:26 广东
最近看机会吗 华为o d
点赞 回复 分享
发布于 09-26 17:15 辽宁
1
点赞 回复 分享
发布于 09-18 23:15 广东
最近在看机会吗 欢迎投递
点赞 回复 分享
发布于 09-17 17:00 辽宁
都是大厂上班吗?
点赞 回复 分享
发布于 08-30 21:07 北京
准备开始
点赞 回复 分享
发布于 08-24 16:45 上海

相关推荐

【实习】大模型强化学习基建与算法研发实习生📍 地点: [北京/上海/深圳] ⏱️ 形式: 实习(建议至少 3-6 个月)岗位职责 (Responsibilities)作为大模型基建团队的核心成员,你将参与最前沿的多模态大模型(VLM)后训练体系建设。你将直面大规模强化学习训练中的算法与系统挑战,核心职责包括:多模态工具调用能力建设: 负责多模态模型在 Tool Use / Function Calling 场景下的后训练(Post-training)流程搭建与优化,通过 SFT 及 RL 提升模型对复杂工具的理解与调用准确率。强化学习算法优化: 深入研究并改进主流对齐算法,针对多模态数据特性设计强化学习算法策略,解决奖励稀疏与训练不稳定问题。训练系统基建与性能调优: 参与大规模分布式强化学习训练框架的研发与维护,负责显存优化、通信优化及流水线并行策略调优,提升训练吞吐量与稳定性。前沿技术探索: 跟踪大模型多模态推理的最新论文,并将前沿算法快速复现并落地到内部基建中。任职要求 (Qualifications)学历背景: 计算机、人工智能、数学等相关专业硕士或博士在读,具有扎实的机器学习/深度学习理论基础。代码能力: 精通 Python 编程,熟练使用 PyTorch,具有优秀的代码风格和工程实现能力。算法基础:深入理解 Transformer 架构及 LLM/VLM 基本原理。熟悉强化学习基本理论,理解强化学习算法细节。加分项 (Preferred Qualifications):工具调用经验: 有 LLM Tool Learning、Agent 或 ReAct 相关的实战经验。基建经验: 熟悉 DeepSpeed, Megatron-LM, vLLM, Ray 等分布式训练/推理框架源码,或有 CUDA 算子优化经验。多模态经验: 熟悉 LLaVA, Qwen-VL 等多模态模型架构。开源/学术: 在顶级会议发表过论文,或在 Hugging Face / GitHub 有高 Star 开源项目贡献。
投递百度等公司6个岗位
点赞 评论 收藏
分享
评论
3
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务