头条算法2面凉经
数挖
一面:
一面面试官是个做cv的, 大概问了:
卷积层个数计算方式
卷积计算复杂度
softmax公式
softmax 的loss function
卷积层的实现
总体来说一面面试官人还是比较好, 我不是做cv的,他问问题也比较循循善诱, 遇到不会的他也会引导。
但就是感觉自己实习项目那么多机器学***数据相关的一点也不提, 有点不开心吧。。不过好在让我过了
二面:
讲一下实习经历
然后我实习用到了xgb, xgb的loss func写一下。。。我写出来了, 面试官又说想看到底是怎么一阶二阶泰勒展开。。。 我说在代码框写的不是很方便,,然后就说了一遍。。感觉这个时候面试官就不是很满意了
然后问xgb到底是怎么预测的, 我说把每一轮预测的结果加起来, 他说是分类问题, 难道第一轮预测为第一类, 第二次预测为第二类, 然后把类别相加吗? 我说每一轮算的都是连续值, 是个得分, 最后把所有的加起来得到概率再分类。 面试官表情尴尬。(有大神来告知我么)
xgb和gbdt的优势, 答了一大堆。。中间掉线好多次
我说道xgb里面实现了rabit通信框架, 可以支持MPI和yarn, 他就问怎么通信怎么计算的。 我说支持通信框架只是可以用yarn来进行资源调度, 并行计算写在框架里的,并行主要是选择特征分类, 把特征分裂后排序之后并行选择。 他问我还有别的吗? 我说不知道(有大神来告诉我么)
算法题, 有N个数字, 从中随机选取M个。 我说先把前M个都选了, 之后的N-M个, 每次生成当前数字索引范围的随机数, 比如遍历到第M+1的数, 生成1 - M+1的随机数, 如果小于等于M就跟前面响应索引的值交换, 如果不是就抛弃。面试官说不对, 我说可能想不出来, 让面试官提醒下。面试官说第一次选中第一个, 第二个选中的概率就是M-1/N-1。
我说那不能保证一定选中M个啊? 面试官说所以还要改进啊。 我顺着面试官的思路说我写不出来了, 面试官说让我回去想, 说今天面试到这里了。
然后就挂了。。。。。
然后我回去查了一下, 发现那个算法题我第一次说的那种方法就是对的。。。
-------------------
总体来说都面的很难受吧, 头条是我第二想去的公司, 第一想去的蚂蚁金服已经在面试中两周了, 估计是没hc凉了。
觉得面试很玄学, 也许提前准备了很多, 最后面试也面不上。 有时候又会有点怀疑自己。
我知道自己可能跟很多大牛比起来实力很一般, 就是一个普通的中部985硕, 没有顶会, 没有数据挖掘top, 没有acm奖牌,自己做算法题可能也没有特别有灵气。
但是我也很努力准备了, 刷了算法题, 复习了很多计算机网络和操作系统基础, 努力准备手推算法还有分布式相关的知识点。
知道算法岗竞争激烈, 但总是不希望自己被轻易否定的。
吐槽完毕~
小姐姐负能量有点多哈~
还有, 有知道上面问题答案的希望告诉我呀·
#字节跳动##面经##算法工程师##秋招##内推#