多久通知的
2 1

相关推荐

 总时长38分钟老套路,先是进行了自我介绍,3分钟完成。自我介绍完,我主动的问面试官,我要不要对我的主要工作做一个简要的汇报,面试官说可以,于是我便开始照着ppt阿巴阿巴。我发现这是一个很有用的技巧,因为若面试官同意汇报,相当于是把面试官引入了我的节奏,我讲的所有东西都是我亲手做过的,而且这样后,面试官问的问题也会和项目中内容相关,这样就会回答起来非常得心应手。这样就比你什么都不说,然后面试官突然提一个冷门的知识,你在那支支吾吾半天答不上来好太多了。而且,他在这问的问题越多,由于时长原因,后面问的其它问题就会越少。这场面试印象比较深的一个问题的是,PPO相对于其它策略梯度的算法有什么优势?我画图讲解了PPO使用了优势函数,让训练过程更加快速和稳定。然后面试官说,除了优势函数,PPO还有一个技巧来方法网络更新是参数差距过大,没等他说完,我赶紧抢着说,PPO有两种方式来实现更新时参数差距过大,一个是KL散度。。。。。。一个是截断函数。。。。。。通过这两种方式来实现早停。。。。。。讲完ppt后,面试官也没问其它的问题,进入了手撕代码环节。给了两个题目,让二选一。第一题又臭又长,我看都没看完,貌似是让你用python实现某个机器学习过程。第二题就比较简单,给定一个二叉树,让你输出每层节点的最大值,果断选择第二题,并几分钟写完了代码。然后面试官看我写的比较快,又让我用pythorch手动实现一下MLP,当时也没想那么多,就写了一个单层的MLP。最后反问环节,我还是问了老掉牙的问题,进去后主要干什么?是否有人带。现在想想估计面试官听这些也都听腻了吧。下次就问应该提前学些什么或准备些什么吧。
查看6道真题和解析
点赞 评论 收藏
分享
✅一面1️⃣时间:1h+自我介绍2️⃣项目介绍:问的很细,过程中不停打断提问算法竞赛项目,整体数据处理流程、模型效果评估方法、心得体会3️⃣八股:简单介绍一下 BERT 和 TransformerAttention 和 self-attention 有什么区别?4️⃣Transformer 的复杂度Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?5️⃣除了 bert 还做过哪些模型的微调?为什么现在的大模型大多是 decoder-only 的架构?6️⃣讲一下生成式语言模型的工作机理用过 LoRA 吗?讲一下原理?7️⃣算法题最大子段和跳台阶其他问后续安排和实习时长,以及反问✅二面1️⃣自我介绍2️⃣项目:深挖八股Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?3️⃣Transformer Encoder 和 Decoder 的输入输出和结构BatchNorm 更多用在视觉上,LayerNorm 更多用在语言上,为什么有没 chatGLM,LLaMA 等部署、微调经历?4️⃣有没有了解过大模型加速推理?5️⃣讲一下 Flash Attention?6️⃣算法题先说思路再写代码1、数组中的第K个最大元素2、数组 nums 表示若干个区间的集合,请你合并所有重叠的区间,并返回一个不重叠的区间数组,该数组需恰好覆盖输入中的所有区间。输入: nums =[[1,3],[2,6],[8,10],[15,18]]输出:[[1,6],[8,10],[15,18]]📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看20道真题和解析
点赞 评论 收藏
分享
牛客网
牛客企业服务