面壁智能一面
1. (项目的点衍生出来的)RoPE 原理,手撕
2. Transformer MHA 手撕
3. vLLM为什么能加速?PagedAttention
4. CPU/ GPU 架构,为什么设计 GPU
5. GPU 硬件架构具体介绍一下
6. 发散的问题:怎么看待AGI,怎么看待大模型的“智能”,平时用什么大模型?(回答豆包,感觉应用做的比较好)
感觉整体问的还是比较深入的,一个问题可以拓展出很多细节。
问题比上午的电信更理论一些,电信更落地更贴近业务(?可能是面试官的仁慈)
偏八股吧,美团全是项目…可能是暑期实习和日常实习的差别?
2. Transformer MHA 手撕
3. vLLM为什么能加速?PagedAttention
4. CPU/ GPU 架构,为什么设计 GPU
5. GPU 硬件架构具体介绍一下
6. 发散的问题:怎么看待AGI,怎么看待大模型的“智能”,平时用什么大模型?(回答豆包,感觉应用做的比较好)
感觉整体问的还是比较深入的,一个问题可以拓展出很多细节。
问题比上午的电信更理论一些,电信更落地更贴近业务(?可能是面试官的仁慈)
偏八股吧,美团全是项目…可能是暑期实习和日常实习的差别?
全部评论
蹲个二面
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享
03-27 01:32
门头沟学院 测试工程师 点赞 评论 收藏
分享