大厂面经|腾讯 AI Lab NLP 算法岗
✅一面
1️⃣时间:1h+自我介绍
2️⃣项目介绍:问的很细,过程中不停打断提问算法竞赛项目,整体数据处理流程、模型效果评估方法、心得体会
3️⃣八股:简单介绍一下 BERT 和 TransformerAttention 和 self-attention 有什么区别?
4️⃣Transformer 的复杂度Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?
5️⃣除了 bert 还做过哪些模型的微调?为什么现在的大模型大多是 decoder-only 的架构?
6️⃣讲一下生成式语言模型的工作机理用过 LoRA 吗?讲一下原理?
7️⃣算法题最大子段和跳台阶其他问后续安排和实习时长,以及反问
✅二面
1️⃣自我介绍
2️⃣项目:深挖八股Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?
3️⃣Transformer Encoder 和 Decoder 的输入输出和结构BatchNorm 更多用在视觉上,LayerNorm 更多用在语言上,为什么有没 chatGLM,LLaMA 等部署、微调经历?
4️⃣有没有了解过大模型加速推理?
5️⃣讲一下 Flash Attention?
6️⃣算法题先说思路再写代码
1、数组中的第K个最大元素
2、数组 nums 表示若干个区间的集合,请你合并所有重叠的区间,并返回一个不重叠的区间数组,该数组需恰好覆盖输入中的所有区间。输入: nums =[[1,3],[2,6],[8,10],[15,18]]输出:[[1,6],[8,10],[15,18]]
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
1️⃣时间:1h+自我介绍
2️⃣项目介绍:问的很细,过程中不停打断提问算法竞赛项目,整体数据处理流程、模型效果评估方法、心得体会
3️⃣八股:简单介绍一下 BERT 和 TransformerAttention 和 self-attention 有什么区别?
4️⃣Transformer 的复杂度Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?
5️⃣除了 bert 还做过哪些模型的微调?为什么现在的大模型大多是 decoder-only 的架构?
6️⃣讲一下生成式语言模型的工作机理用过 LoRA 吗?讲一下原理?
7️⃣算法题最大子段和跳台阶其他问后续安排和实习时长,以及反问
✅二面
1️⃣自我介绍
2️⃣项目:深挖八股Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?
3️⃣Transformer Encoder 和 Decoder 的输入输出和结构BatchNorm 更多用在视觉上,LayerNorm 更多用在语言上,为什么有没 chatGLM,LLaMA 等部署、微调经历?
4️⃣有没有了解过大模型加速推理?
5️⃣讲一下 Flash Attention?
6️⃣算法题先说思路再写代码
1、数组中的第K个最大元素
2、数组 nums 表示若干个区间的集合,请你合并所有重叠的区间,并返回一个不重叠的区间数组,该数组需恰好覆盖输入中的所有区间。输入: nums =[[1,3],[2,6],[8,10],[15,18]]输出:[[1,6],[8,10],[15,18]]
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
八股文真多啊
相关推荐