大模型预训练面经(五)

  1. 你了解 Mixtral 8*7B 模型训练的优化组选择吗?
  2. 机内通信首选的策略组应该是什么,选择的原因是什么?
  3. shared_memory 一定重要吗,cuda 中的 memory 种类和使用方式介绍一下
  4. cuda launch 的过程,CPU 端怎么知道命令完成的
  5. GPU 之间的通信是如何完成的
  6. cuda 的计算和通信指令是如何发出的
  7. CP 的并行方式和并行思想,ring 和 ulysses 的技术介绍
  8. 介绍一下在大模型训练/推理过程中常见的通信原语
  9. 请解释并介绍一下 Roofline 模型,是怎么运用到实际场景中的
  10. 如果给你一些 CPU,GPU 的型号,你如何去对他们进行比较合适的组装,以及机内机间的带宽你要如何选择(开放题
  11. 对于大模型发展的看法(开放题
全部评论

相关推荐

头像
10-25 21:17
已编辑
门头沟学院 算法工程师
没想到居然给过了???!!!今天下午HR电话联系发了二面-----------------10.21 更新-----------------结果:挂了,但整体面试体验很好(除了公司难蚌的网络)先自我介绍,不过网络卡顿比较严重,面试官中途一直没怎么听清,断断续续的,本来先拷打项目的,就直接进coding环节了一共两道手撕:1)实现softmax,秒撕,但是公式记错了(跟之前科研做OoD Detection时候的写的softmax变式记混了),自己也觉得有问题但就是没发现在哪儿,寄 2)给定一个单调递增数组,且满足大小关系:2 * a[i-1] < a[i],判断是否存在两数之和为k,要求O(logn)时间复杂度和O(1)空间复杂度。在面试官逐步引导之下做出来了,还让手撕了lower_bound和upper_bound手撕感觉寄的差不多之后,又开始结合项目拷打八股(其实就是挑项目里的点问八股,不关注项目本身),深挖了LoRA的原理和细节(只是用过没有深入了解细节,被挖出来了)为什么DeCoder Only是目前大模型的主流,有什么考量和优势在?为什么ResNet没有像transformer结构上不断地堆参数规模?总体来说,面试专业度挺满意的,感觉比理想一面(还搞KPI)和宁德时代好太多。最近忙着搞开题和实习,很久没看八股了,最近不少面试被问到准备过的感觉都答得一般,得再抓一手了。 #你都收到了哪些公司的感谢信?#  #小鹏汽车#  #秋招#  #算法工程师#
点赞 评论 收藏
分享
1 1 评论
分享
牛客网
牛客企业服务