百度NLP机器学习 一面凉经

百度NLP机器学习 一面凉经(写个东西警示自己, 希望自己能不被挫折打倒,不抛弃不放弃。。。)

面试官人很好,感觉年龄不大,全程会耐心听我回答,也会也会解答一些我的疑惑, 历时一个小时。

1.自我介绍 讲项目

2.对于CNN 卷积层、和池化层的物理意义是什么(不是计算方法)

3.对于池化的max方法和mean方法 分别适合针对什么情况下应用?

4.在工程中什么样的结果会表明是over fitting/under fitting

5.如何防止over fitting,答了cross validation / 正则化

6.对你所提到的L1和L2正则化,能否阐述一下他们的区别

7.L2正则化的penalize term和先验有关系嘛?如有是什么样的关系

8.对于普通线性回归 y = wx+b, 你认为w能否代表特征的重要性?请阐述原因。。这题不懂请教了一下面试官,面试官人很好,她说:“我认为不能,1. 如果特征的scale不同,w的大小就没有意义 2. 即使normalization后 如果有些特征是有强相关性的,比如你的生日和年龄,在选特征的时候也许是随机选一个。所以这并不能说w能代表特征的重要性”。

9.代码题

(1)排序二叉树 插入新数字(没复习数据结构,我都忘了什么叫排序二叉树)面试官就换了一个问。。。

(2)归并排序中的归并,共享屏幕,不运行

10.最后她问我有什么想问她的,我想让她总结一下我这次面试。她说你想听实话嘛。。。。。

我说想。。。总的评价:基础有些薄弱 深层问题经不起推敲(特别在项目上),停留在知道的层面无法投入工程,代码能力还行。

最后稳凉了。。。。以后加油


#百度##机器学习##校招##面经#
全部评论
3.当feature map中的信息都具有一定贡献的时候使用AvgPooling,比如网络走到比较深的地方,这个时候特征图的H W都比较小,包含的语义信息较多,这个时候再使用MaxPooling就不太合适了.反之为了减少无用信息的影响时用maxpool,比如网络浅层常常见到maxpool,因为开始几层对图像而言包含较多的无关信息。二者的具体使用场景只有在具体任务上观察,实际效果炼丹后才知道。
2 回复 分享
发布于 2020-01-17 12:20
感觉这个面试官好好,你想听实话吗?
1 回复 分享
发布于 2020-01-17 16:30
是实习码? 还是正是岗?
点赞 回复 分享
发布于 2020-03-29 18:21

相关推荐

面试摇了我吧:啊哈哈面试提前五个小时发,点击不能参加就是放弃
点赞 评论 收藏
分享
走不到的路就这样算了吗:大佬硬气
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
11-27 10:46
点赞 评论 收藏
分享
评论
6
41
分享
牛客网
牛客企业服务