辉羲智能 NPU算子开发实习生 面经
Time line
3.12 一面 hr面
3.13 二面 技术面
3.17 三面 技术面
3.24 oc
一面
主要就是聊聊天,介绍公司基本情况以及薪资待遇(正常来说,这不应该三面么)
二面
1.简单介绍一下你自己
2.拷打项目,几种常见卷积算法的优缺点
3.写算子时有碰到bank conflict吗?为什么会发生bank confict以及如何解决?
4.说一下CPU和GPU的架构
5.说一下你对grid,block,thread的理解
6.写算子时如何最大化地利用缓存?
迭代一次的数据尽量符合L1的大小,整个程序的数据尽量符合L2的大小。(当时我的回答)
7.你知道线程束分歧吗?(warp divergent 也叫线程束分化)
8.手撕矩阵乘算子(当时我打开vscode,他看了我写的reduce以及conv2d,于是便叫我写一个矩阵乘)
第一次技术面,有点紧张,在面试官的提示下顺利写出naive版本,然后说自己对后面的优化,以及如何确定最佳分块大小。过程中还问了blockDim.x和gridDim.x最大能开多少。
反问环节
三面
感觉和二面差不多,主要也是拷打项目
不同点:
1.共享内存和cache的区别
2.你了解Tensor core吗?它和CUDA core比加速矩阵乘谁更快?
3.你了解Transformer吗?
4.softmax算法在深度学习中的应用
5.手撕softmax算子(有了经验后,十分顺利)
反问环节
最后祝大家都能顺利找到实习


#面经##实习##算子开发##CUDA#
3.12 一面 hr面
3.13 二面 技术面
3.17 三面 技术面
3.24 oc
一面
主要就是聊聊天,介绍公司基本情况以及薪资待遇(正常来说,这不应该三面么)
二面
1.简单介绍一下你自己
2.拷打项目,几种常见卷积算法的优缺点
3.写算子时有碰到bank conflict吗?为什么会发生bank confict以及如何解决?
4.说一下CPU和GPU的架构
5.说一下你对grid,block,thread的理解
6.写算子时如何最大化地利用缓存?
迭代一次的数据尽量符合L1的大小,整个程序的数据尽量符合L2的大小。(当时我的回答)
7.你知道线程束分歧吗?(warp divergent 也叫线程束分化)
8.手撕矩阵乘算子(当时我打开vscode,他看了我写的reduce以及conv2d,于是便叫我写一个矩阵乘)
第一次技术面,有点紧张,在面试官的提示下顺利写出naive版本,然后说自己对后面的优化,以及如何确定最佳分块大小。过程中还问了blockDim.x和gridDim.x最大能开多少。
反问环节
三面
感觉和二面差不多,主要也是拷打项目
不同点:
1.共享内存和cache的区别
2.你了解Tensor core吗?它和CUDA core比加速矩阵乘谁更快?
3.你了解Transformer吗?
4.softmax算法在深度学习中的应用
5.手撕softmax算子(有了经验后,十分顺利)
反问环节
最后祝大家都能顺利找到实习
#面经##实习##算子开发##CUDA#
全部评论
牛
我为大佬打call


佬请问你项目准备的是啥呀
佬是硕吗
相关推荐
等闲_:业务开发就是prompt+数据,Ai就是中间件,中台或者鸡架会做一些Agentic infra和智能体记忆之类的,再底层一点就是AI infra,MLops,模型微调,推理优化之类的了,所以对于普通后端就是纯业务,没啥技术含量,除非去技术架构组或者底层一点的组,要不AI就是个API,别神话AI应用开发
点赞 评论 收藏
分享
点赞 评论 收藏
分享
点赞 评论 收藏
分享
