昆仑天工大模型二面

1. 自我介绍
2.项目介绍
3. 你的项目有用到很多微调方式,能给我解释一下吗?(lora pv2 prompt tuning 等)
4. 能详细介绍一下 Transformer 结构吗?
5. bert 在训练的时候, 如果一个 batch size 的内容长度不一样, 这个怎么解决?(我说的加 padding token)
6. 那加 padding token 会不会对计算结果有影响?
(反应了很久没理解问题, 我就说从预训练一开始就这样,应该不会影响的 ,相当于 pad token 这块都是-100 不计算 loss)
7. 这个 loss 是什么 交叉熵
还有几个提问给忘记了

做了一道 mid 难度的 dp 题,1-26 对应 a 到 z,给一个 nums 字符串,有多少种转换方式。 
第一次写没考虑 0, 他给的 case 没过,改了一下。
全部评论
老哥是开发转大模型了吗,之前的实习经历不是可惜了吗
点赞 回复 分享
发布于 03-11 12:29 陕西
过几天也要面了,纯靠看你的面经过活了哥
点赞 回复 分享
发布于 03-26 20:51 北京
兄弟真的猛,我面了几家已经累得不行了
点赞 回复 分享
发布于 04-10 13:30 北京

相关推荐

有工作后先养猫:太好了,是超时空战警,我们有救了😋
点赞 评论 收藏
分享
5 5 评论
分享
牛客网
牛客企业服务