百度机器学习实习三面 估计凉凉 但是发出来吧
做完比试觉得自己没戏了,没想到收到面试短信。
一面:很温和的小哥哥
1、xgboost和gbdt的区别?这方面问的很细,比如说xgboost可以并行加速是怎么进行的,每次分裂叶子节点是怎么决定特征和分裂点的。
2、LR手推,包括极大似然的概念,为什么极大似然的时候可以相乘,满足独立同分布?然后梯度下降更新权值,这里我自己自作主张的说了下mini-batch 梯度下降,SGD等,说手写过这里的代码,想展示下自己。
3、结合项目,讲下怎么进行特征选择,特征工程方面,比如说非数值型怎么处理,one-hot后维度高怎么。问你用的xgboost也许要对特征进行标准化吗?这里也考得xgboost吧,我感觉xgboost其实对特征的的预处理要求不是那么高,讲了下原理,就没再问了。
4、结合我的项目,用gan网络去噪,解释了下conditional gan的原理。损失函数的创新点。
5、画了下googlenet的结构。讲了下googlenet跟之前的网络的不同。
6、googlenet中为什么采用小的卷积核?答,两个3x3相当于一个5x5这样可以降低参数量。
7、代码题,反转链表,树的层次遍历(说思路,用了quene),全排列(123,321,213)。代码部分写的很慢,但基本也都由思路,写出来了。
8、LR和SVM的区别。
9、SVM为什么可以处理非线性问题。
一面过了,主要是面试官人很好。说我代码要加强,有思路但是写得很慢。
二面:和二面的小哥哥聊的挺开心的,人也很好。
1、问了爬虫的项目,和特征选择方面的问题,主要是高维的特征怎么进行降维。反爬虫的机制。
2、依然是xgboost和rt和gbdt三联问。这部分卤煮觉得自己答得挺全面,所以两次的面试官都挺满意的。
3、回归决策树和分类决策树分裂节点的时候怎么处理。
4、各种排序的时间复杂度(最好最坏和平均),空间复杂度,写了归并排序(这个写的很快)。面试小哥哥说你代码写的还挺好,楼主其实是背的,只能尴尬的说这个排序都是很基础的,小哥哥说你觉得太简单了?楼主说你不能因此考我难得,面试官居然就没怎么问代码了。
5、开放题,楼主不是做nlp的但是问了中国到中华人民***国这种模糊搜索怎么办,小哥哥一直在引导,人真的很好。
6、手推LR(楼主真的很幸运,两次题目居然一样,开心的答了)。
7、协同推荐方面,usercf和itemcf。
7、协同推荐方面,usercf和itemcf。
二面比较轻松了,和面试官聊的很愉快,人真的很好,没想到也过了。
三面:三面感觉是个技术大牛在问,很深入,露珠其实算起来是第二次面试,经验准备都很少,答得很烂。
1、亿级文件,每一行是一个字符串,单个文件中,字符串没有重复,两个文件中取交集。露珠真不会,引导下说了hash的原理等。
2、亿级用户推荐视频。
3、高维稀疏的特征怎么处理。答降维。问会不会embedding,说听过word2wec里面解决词向量,但是具体不会。
4、xgboost什么的深入问了下。
5、代码题,很简单但露珠说了二分,代码写了很久,我真的好渣啊T,T。反转数组求最小。
三面结束回去等消息,明显可以感到三面对露珠很不满意了TAT。但是,这次算是进步吧,好歹进三面了。总结问的问题都很基础,比较注重手写代码能力和思考能力,希望大家都拿到满意的offer吧。
#百度##实习##机器学习##面经##算法工程师#