蔚来 大数据开发 一面凉经
1.为什么要往Kafka里写处理结果?
2.Flink,Kafka如何做到数据不丢失
3.Flink,Mysql又要如何做到数据不丢失
4.Spark如何做到权限控制
5.讲讲你对Spark最了解的地方
6.做大数据平台,同时两个人要提交SQL,处理数据,应当怎么做
7.在Spark里自定义算子,如何判断算子是不会导致依赖错误,后续补充为,如何判断DAG还是DAG,不会形成环
算法:判断链表是否有环
只记得这么多了,面试官人很好,不会的会提示,实在不会的也会回答。
遇到的最难的面试,人麻了。
反问面试官如何在面试里能够比较好地回答场景题
面试官说还是要注重知识的广度,评价广度不够,深度也不够,对于大数据停留在一个比较浅显的了解上,应当静下来心来学习