智谱大模型算法工程师(OC)

9.26 下午三点OC面经可以看之前帖子,时间线如下:
8.12 一面
8.16 二面
8.20 三面
8.29 HR面
9.26 OC
#智谱AI##大模型##晒一晒我的offer##25秋招记录#
全部评论
有让佬去实习嘛
1 回复 分享
发布于 09-26 18:18 北京
大概能开多少了解过吗,我也oc了
1 回复 分享
发布于 09-30 14:26 江苏
佬集邮了好多offer.
1 回复 分享
发布于 10-07 13:37 上海
发的oc是正式oc 还是实习oc 呀
点赞 回复 分享
发布于 10-12 11:13 北京

相关推荐

10-10 18:23
已编辑
门头沟学院 算法工程师
不怎么发面经,但是元象的面试体验是目前面过所有的公司体验最好的,所以写出来分享一下更新 ——————————————9.30 二面10.08 HR面(系统里写的联创面,以为是联合创始人面,结果是HR面)HR很真诚,说不养鱼,很快谈薪————————————————大模型应用组:(面的时间比较早好些问题忘了)8.24 投递9.13 一面 30min- 深挖实习- deepspeed原理- LoRA原理- LN的作用- 为什么LN能使模型训练更稳定- 无手撕9.19 二面挂 30min- 全程深挖我的实习经历,无八股无手撕(面试官一直解释说是想鸡蛋里挑骨头,挺实诚的,行吧)9.23 被大模型研发组捞9.25 刚一面完 1h:- 深挖实习- deepspeed原理- deepspeed和以往张量并行的区别- transformer结构- 拷打多头注意力(为什么多头更好,能不能单头)- Llama相对于Transformer decoder的改进点- RMSNorm和LN的区别- prenorm和postnorm的区别- 模型训练时显存占用(优化器,梯度,激活值等都怎么估计,假设模型7b)- 序列并行的原理- 介绍一下位置编码(和面试官讨论了RoPE和NTK系列的位置编码)- RoPE为什么能够表示相对位置- RoPE怎么作用的,如何旋转(我说完后面试官从数学角度补充了他的理解,鼠鼠受益良多)- VLLM原理- 为什么需要KV-cache- “写个题呗,简单点的,反转链表吧”这三场面试的面试官都很有礼貌。尤其刚面完的这场,面试官基础和技术都很强,感觉他没少看苏神博客,对原理拷打的很细致。很多问题我说完之后他会补上自己的理解和我讨论,不像是在面试哈哈哈。但是也感觉自己的所有积累也被他翻了个底朝天,收获很多,许愿一个二面~
点赞 评论 收藏
分享
3 2 评论
分享
牛客网
牛客企业服务