一面:1. 自我介绍2. 怎么理解大模型安全,包含哪些方面的内容?3. 从上面这些方面有哪些防护措施,有量化指标吗?4. 大模型训练有哪些步骤?5. 讲讲RLHF的具体过程?涉及几个模型?6. Transformer的结构?7. 知道哪些注意力机制?8. 现场手写自注意力机制公式9. llama是怎么优化注意力机制的计算的?(这个我真的不知道)10. 讲讲项目,有哪些跟大模型有关的?11. 实习过程中有哪些自己想到的创新点,效果如何?12. 你们是如何跟进最新的大模型技术?13. 讲讲你知道的大模型技术最新发展。14. 多模态了解吗?15. RAG的过程是什么样的?16. 有哪些让你印象深刻的大模型产品?17. 手撕代码:二叉树的层序遍历二面:1.算法题,删除倒数第n个节点2.Encoder-Decoder,Casual Decoder,Prefix Decoder的区别3.模型涌现现象的原因?4.LLM复读机现象的原因是什么?怎么解决?5.数据角度来看有什么问题?6.分布式训练有哪些技术?7.特定任务用预训练还是微调?8.RAG和微调的区别,优劣分别是什么?9.SFT导致的通用能力遗忘应该怎么解决?10.Function call怎么训练的?怎么微调的?11.Function call怎么组织文本的格式喂给模型?12.Function call怎么把下游的一些工具,插件变成模型可以理解的方式?13.百川,千问,LLAMA的Position Embedding是怎么做的?有什么区别?14.微调过哪些模型,微调占用的显存是多大?跟哪些因素有关系?15.LLAMA的输入可以是无限长吗?输入变长会有哪些变化?16.模型安全相关是怎么做的,有哪些注入的手段?17.反问环节二面的时候,Function call并不是很了解,所以回答得并不好,位置编码这个问题也没回答好(他想听旋转位置编码,但是我不清楚具体原理),面完五天回到人才库,跟hr打电话结果是部门反馈不再推进。总体来说美团确实问得很细,我毕竟是半路出家的,有些地方确实不太熟悉,但是被二面挂还是很难受