美团到店-大模型算法面经
一面:
1. 自我介绍
2. 怎么理解大模型安全,包含哪些方面的内容?
3. 从上面这些方面有哪些防护措施,有量化指标吗?
4. 大模型训练有哪些步骤?
5. 讲讲RLHF的具体过程?涉及几个模型?
6. Transformer的结构?
7. 知道哪些注意力机制?
8. 现场手写自注意力机制公式
9. llama是怎么优化注意力机制的计算的?(这个我真的不知道)
10. 讲讲项目,有哪些跟大模型有关的?
11. 实习过程中有哪些自己想到的创新点,效果如何?
12. 你们是如何跟进最新的大模型技术?
13. 讲讲你知道的大模型技术最新发展。
14. 多模态了解吗?
15. RAG的过程是什么样的?
16. 有哪些让你印象深刻的大模型产品?
17. 手撕代码:二叉树的层序遍历
二面:
1.算法题,删除倒数第n个节点
2.Encoder-Decoder,Casual Decoder,Prefix Decoder的区别
3.模型涌现现象的原因?
4.LLM复读机现象的原因是什么?怎么解决?
5.数据角度来看有什么问题?
6.分布式训练有哪些技术?
7.特定任务用预训练还是微调?
8.RAG和微调的区别,优劣分别是什么?
9.SFT导致的通用能力遗忘应该怎么解决?
10.Function call怎么训练的?怎么微调的?
11.Function call怎么组织文本的格式喂给模型?
12.Function call怎么把下游的一些工具,插件变成模型可以理解的方式?
13.百川,千问,LLAMA的Position Embedding是怎么做的?有什么区别?
14.微调过哪些模型,微调占用的显存是多大?跟哪些因素有关系?
15.LLAMA的输入可以是无限长吗?输入变长会有哪些变化?
16.模型安全相关是怎么做的,有哪些注入的手段?
17.反问环节
二面的时候,Function call并不是很了解,所以回答得并不好,位置编码这个问题也没回答好(他想听旋转位置编码,但是我不清楚具体原理),面完五天回到人才库,跟hr打电话结果是部门反馈不再推进。
总体来说美团确实问得很细,我毕竟是半路出家的,有些地方确实不太熟悉,但是被二面挂还是很难受
1. 自我介绍
2. 怎么理解大模型安全,包含哪些方面的内容?
3. 从上面这些方面有哪些防护措施,有量化指标吗?
4. 大模型训练有哪些步骤?
5. 讲讲RLHF的具体过程?涉及几个模型?
6. Transformer的结构?
7. 知道哪些注意力机制?
8. 现场手写自注意力机制公式
9. llama是怎么优化注意力机制的计算的?(这个我真的不知道)
10. 讲讲项目,有哪些跟大模型有关的?
11. 实习过程中有哪些自己想到的创新点,效果如何?
12. 你们是如何跟进最新的大模型技术?
13. 讲讲你知道的大模型技术最新发展。
14. 多模态了解吗?
15. RAG的过程是什么样的?
16. 有哪些让你印象深刻的大模型产品?
17. 手撕代码:二叉树的层序遍历
二面:
1.算法题,删除倒数第n个节点
2.Encoder-Decoder,Casual Decoder,Prefix Decoder的区别
3.模型涌现现象的原因?
4.LLM复读机现象的原因是什么?怎么解决?
5.数据角度来看有什么问题?
6.分布式训练有哪些技术?
7.特定任务用预训练还是微调?
8.RAG和微调的区别,优劣分别是什么?
9.SFT导致的通用能力遗忘应该怎么解决?
10.Function call怎么训练的?怎么微调的?
11.Function call怎么组织文本的格式喂给模型?
12.Function call怎么把下游的一些工具,插件变成模型可以理解的方式?
13.百川,千问,LLAMA的Position Embedding是怎么做的?有什么区别?
14.微调过哪些模型,微调占用的显存是多大?跟哪些因素有关系?
15.LLAMA的输入可以是无限长吗?输入变长会有哪些变化?
16.模型安全相关是怎么做的,有哪些注入的手段?
17.反问环节
二面的时候,Function call并不是很了解,所以回答得并不好,位置编码这个问题也没回答好(他想听旋转位置编码,但是我不清楚具体原理),面完五天回到人才库,跟hr打电话结果是部门反馈不再推进。
总体来说美团确实问得很细,我毕竟是半路出家的,有些地方确实不太熟悉,但是被二面挂还是很难受
全部评论
大佬~
大佬,可以问下你是多久投的简历吗?我看你面经基本全是八股,面试官都没怎么问项目吗?
大佬一面完后多久通知的二面呀
大佬
大佬,请问这个岗位是纯算法、模型预训练那种吗?论文要求高不
相关推荐