百度 北京 机器学习/数据挖掘 1+2+3面

先说说面试感受,一二面面试官人也是很nice,但是可能面的人实在太多的,下午1点去,面一场差不多就1个小时,等就差不多1个小时,体能消耗挺严重的,不过有现场提供的饮料跟零食,可以稍微补充一下,最后面完都7点多了。
下面的面经说完问题后,比较确定的答案会在问题后的括号写上,但是不确定的就不写来误导大家了。
————————————————————————分割线—————————————————————————————————————
一面:
先来3分钟的自我介绍,之后就开始聊项目,看到有deep learning相关的项目,就问了deep learning 相关问题:如何减少参数(权值共享、VGG的感受野、GoogLeNet的inception ),激活函数的选择(sigmoid->ReLu->LReLU->PReLU ),为什么之前没有深度网络出现(数据量不够+机器性能),由数据引申到数据不平衡怎么处理(10W正例,1W负例,牛客上有原题),如何防止过拟合(增加数据,减少模型复杂度->正则化),说明L1L2正则的效果与为什么形成这种情况( L1正则稀疏, L2正则平滑,之后说明就是画图说明正则化 ),推导SVM(只是推导基础就可以了,这个比较简单)。最后是做题,非常经典的0-1背包问题。
二面:
依然是自我介绍,之后就是手写k-means的伪代码(就6行),之后让我挑一个熟悉的机器学习算法说一说(这次我还是选了SVM,之后手写推导,这次一直写完对偶),之后就是大数据题目,1KW句子算相似度(还是那套分块+hash/建索引,但是因为本人不是做这个的,文本处理根本说一片空白,所以就不误导大家了),之后就是一直围绕大数据的题目不断深化。
三面:
一上来就是一道数学题,让推极限(最后面试官说是时间复杂度推导),之后是对于同分布的弱分类器,求分类器均值化之后的分布的均值跟方差;接着写一下信息增益的公式。之后就是问机器学习相关算法,说了一下bagging跟boosting,之后问了GBDT(没做过,只能说说大体思路)。
最后是编程题,这个比较简单,将字符串连续重复出现的字符删到只剩一个,这个可以用双指针,时间复杂度n,空间复杂度1。之后就是c++的数据成员的可见性,继承到子类之后的可见性(这里我是分了不同继承方式讨论的),子类友原函数对父类private能否可见。之后问数据结构,堆是怎么调整的,给定二叉树的先序跟后序遍历,能不能将二叉树重建(不能,因为先序:父节点-左节点-右节点,后序:左节点-右节点-父节点,两者的拓扑序列是一样的,所以无法建立),如果给出一个二叉搜索树的后续能不能建立(可以,因为只要将遍历结果排序就可以得到中序结果)。

三面直接被吊打了,听说是123面的分数加起来算是否通过,希望能赚赚RP求过吧
#百度##算法工程师#
全部评论
基本没一个看得懂
点赞 回复 分享
发布于 2016-09-26 15:31
好难啊
点赞 回复 分享
发布于 2016-09-26 15:34
同机器学习岗,同被吊打……问了一个非凸问题,直接放弃了。。。
点赞 回复 分享
发布于 2016-09-26 15:42
楼主一天就把三面都面完了啊?
点赞 回复 分享
发布于 2016-09-26 20:14
楼主有好消息吗?
点赞 回复 分享
发布于 2016-10-04 11:12
“由数据引申到数据不平衡怎么处理(10W正例,1W负例,牛客上有原题)”    楼主原题在哪里找到的,可以发个链接不
点赞 回复 分享
发布于 2017-07-25 22:56
楼主,我想请问一下 对于同分布的弱分类器,求分类器均值化之后的分布的均值跟方差,这个题的考点是什么?  随机森林?我没怎么理解这个意思,求指教
点赞 回复 分享
发布于 2017-09-02 16:52
楼主面的那个部门啊
点赞 回复 分享
发布于 2017-09-02 17:37
问题还都是比较基础的。
点赞 回复 分享
发布于 2017-09-02 18:37

相关推荐

诨号无敌鸭:恭喜佬,但是有一个小问题:谁问你了?我的意思是,谁在意?我告诉你,根本没人问你,在我们之中0人问了你,我把所有问你的人都请来 party 了,到场人数是0个人,誰问你了?WHO ASKED?谁问汝矣?誰があなたに聞きましたか?누가 물어봤어?我爬上了珠穆朗玛峰也没找到谁问你了,我刚刚潜入了世界上最大的射电望远镜也没开到那个问你的人的盒,在找到谁问你之前我连癌症的解药都发明了出来,我开了最大距离渲染也没找到谁问你了我活在这个被辐射蹂躏了多年的破碎世界的坟墓里目睹全球核战争把人类文明毁灭也没见到谁问你了
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
10-25 10:12
点赞 评论 收藏
分享
点赞 147 评论
分享
牛客网
牛客企业服务