放弃高薪的我现在怎么样了

本人bg:23年毕业,当时拿到了几家大厂offer,我放弃了互联网大厂的高薪,选择了最适合自己的,平安产险科技。

现在看到大家又在纠结offer,想分享一下我的心得体会。

1、当时为什么放弃高薪

其实核心原因非常非常简单,我是一个非常追求稳定性的人,因为我看到学长学姐不稳定造成的动荡局面,真的有点怕了,而且所有工作都是对等的,给你高薪就一定要你多工作多付出,或者要以不稳定为代价,毕竟天下掉馅饼的日子是不存在的,高薪也意味着涨薪会相对困难,因为企业为了招你,已经倒挂了很多老员工了,后面除非有非常重大的贡献,不然还一味给你涨薪那肯定说不过去。而且我是非常不喜欢高强度工作和高压力工作的,就是可以一阵忙,但是不能阵阵忙,那人真的受不了,我还是想享受生活的。所以,我放弃了其他互联网大厂,毅然选择了平安产险科技,当时女朋友还很反对我,觉得这样我们在深圳没办法过的很好(她那时候还不知道我家家境还可以),但是我的一在坚持,她也就支持我了。

2、现在我怎么样

怎么样呢,就正常呗,和我预想的其实一样,平安产险科技确实很稳定,而且产险比其他险种业务甚至更稳定,我基本没有什么35岁焦虑的情绪,我们就在深圳福田市中心,就是那种金融打工圈,每天中午有时候午休有时候出去走走,最近深圳也降温了,但是我还是很喜欢出去走走,感觉很舒服,晚上约个朋友或者和女朋友吃个晚饭,偶尔回家做饭吃,就咋说呢,也没啥特别的好,就是很平淡的生活吧,或者说平淡的幸福的生活吧,不然还能怎么样呢,至少我还是很享受这种生活的感觉的。最近要圣诞节了,我们周边商圈的节日氛围非常浓厚,内部也有很浓厚的节日氛围,今天还给我们送来了圣诞拉花咖啡,很好喝!

而且该说不说平安产险的福利是真的好,我记得我刚入职的时候就给我们过渡的时间,报道期间住宿费和路费全报销,现在每逢过节都有过节费和福利,如果我们需要考证也都给报销,工作一年后还有企业年金,可以自选是否缴纳。

所以还是要看你到底想要什么样的人生,然后依照这个去规划,在规划中我们需要补齐的是信息差,比如我了解到平安产险各方面很符合我想要的,我就选了,而不是说我知道了我想要什么,然后随机选一个,那就真的是开盲盒了。

#平安产险科技中心求职汇总##找工作时的取与舍#
全部评论
省流:她那时候还不知道我家家境还可以
324 回复 分享
发布于 2024-12-19 21:28 湖北
啧啧,一句话总结:家境还可以,其他都是浮云,大家看戏就好
161 回复 分享
发布于 2024-12-19 21:38 浙江
"她那时候还不知道我家家境还可以" v50看看实力
46 回复 分享
发布于 2024-12-19 21:07 广东
划重点 家境还可以
13 回复 分享
发布于 2024-12-19 23:21 广东
家境好有后路找工作少很多烦恼了
12 回复 分享
发布于 2024-12-20 10:28 广东
工号报一下 给你升职加薪
6 回复 分享
发布于 2024-12-20 21:18 上海
她那时候还不知道我家家境还可以
4 回复 分享
发布于 2024-12-20 13:50 上海
平安是私企,谈何稳定性?
3 回复 分享
发布于 2024-12-20 00:03 浙江
老哥,年终奖真能给那么多吗
3 回复 分享
发布于 2024-12-19 22:14 湖南
我的梦想是在大厂卷几年再回家乡(海南)开个羽毛球馆我本身是会下意识卷的,比如硕士毕业论文,学长发我他的论文八十多页,然后我就写,一发不可收拾就写完了一百多页
1 回复 分享
发布于 01-05 20:02 海南
哥,平安会卡色弱吗
1 回复 分享
发布于 2024-12-20 18:56 广东
家境还可以,解决一切烦恼
1 回复 分享
发布于 2024-12-20 15:23 浙江
高薪背后的压力
点赞 回复 分享
发布于 04-26 20:41 广东
那我这种家境不行的算啥
点赞 回复 分享
发布于 02-14 19:50 广东
稳定性确实很重要
点赞 回复 分享
发布于 02-13 00:22 河北
稳定性确实很重要
点赞 回复 分享
发布于 02-11 23:51 浙江
理解你的选择
点赞 回复 分享
发布于 02-08 12:42 广东
平安是年终占大头哦,其他还好
点赞 回复 分享
发布于 02-08 10:12 上海
真羡慕家境还可以
点赞 回复 分享
发布于 02-02 20:47 江西
年终如何
点赞 回复 分享
发布于 02-01 11:54 湖南

相关推荐

1. 实习介绍2. 挑一个你最熟悉的大模型项目,讲讲它的目标,你主要负责什么,以及你觉得最有意思的技术点。3. 在Transformer的Decoder里,我们为什么需要用Mask把未来的信息“遮住”?从代码实现上讲,这个Mask具体是怎么作用在Self-Attention分数上的?4. 关于LayerNorm放在残差连接的“前面”还是“后面”(Pre-LN vs Post-LN),社区里有很多讨论。这两种设计选择,主要会影响训练过程的哪些方面?你更倾向于哪一种,为什么?5. 我们要在线上部署一个大模型提供服务,推理速度和吞吐量是个大问题。像vLLM这样的工具,它主要是通过什么核心思想(比如PagedAttention)来解决KV Cache的内存问题,从而提升推理效率的?6. 我们有一个基础模型,但它不太会“听人话”。如果想把它训练成一个能很好遵循指令的聊天助手,通常有几步?能简单说说SFT(监督微调)和基于人类反馈的对齐(比如PPO/DPO)分别是在解决什么问题吗?7. 假设我们有一个效果很好的70B大模型,但因为太大太慢,没法直接上线。现在需要你把它“变小变快”。你会考虑用哪些方法(比如剪枝、量化)?各自有什么优缺点?8. 相比于让大模型直接回答问题,现在很流行的RAG(检索增强生成)方案,它最大的好处是什么?主要解决了什么痛点?9. 我们的RAG系统上线后,发现有时候还是会“胡说八道”,或者答非所问。如果让你去排查,你会从哪些方面入手?(比如是检索模块没找对,还是生成模块没理解好?)10. 核心代码模式算法题:二叉树的中序遍历11. 反问
点赞 评论 收藏
分享
评论
175
119
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务