#牛客创作充电计划# 聊聊大数据岗位(岗位,面试,工作)和需要懂的技术栈1,岗位哈:在我的理解中,大数据的工作其实还是很多的,其中主流是数据仓库一个公司有大数据就一定有数仓,其次就是还会有大数据etl工程师这个岗位一般是确保每天数仓的数据同步以及确保数据不能丢,如果事情比较急可能还会安排值班,还有就是大数据运维,大家都知道肯定有运维来维护集群,大数据运维还和别的运维不一样里面的很多配置需要懂大数据技术的人才能配置还有就是任务挂掉资源不足等,这种要专门的运维才能懂,其次就是还要有实时计算等等,干风控的肯定会有实时计算,对于flink的窗口,状态,定时器肯定要非常熟练这种也是对于技术要求很高的,至少要干几年的老手才能独立设计这个风控架构和实现2,面试,其实面试就是很常规都是问会哪些技术然后根据你的项目来问实现过程,还有就是面试官遇到的问题可能也会找你问,对于这种问题如果不是干过的人或者是了解比较深是难回答的,这种就要你有经验了,还有就是要钱了,如果你要25k起步那么你说的范围就要25-28,一定不要说啥20-28,就要直接说死最低下限对于要钱一定不要不好意思,当时我校招直接一口价直接要16面试前问清楚如果没有到直接就可以不面了3,工作,我来讲一下大数据日常的工作哈,拿数仓为例,大数据其实可以说是非常核心的工作也是非常重要的部门,管理全公司的所有数据也是直接对接公司的管理层需求也是很大的,尤其是建模和提供数据服务,对于数据来说调用是非常大的,对于所有的业务线基本上都会要数据,每天可能还会有数据异常以及调度任务的失败都是需要专人来解决的,还有就是风控的任务也是非常重要,对于这种活技术要求高并且部署任务资源和优化也是要考虑的,每天大数据开发工程师都是开发这种,一般任务排期都比较满,还有就是大数据团队一般也不要太多人,一般都是某个人负责一个模块4,最后来说一下大数据需要会的技术栈哈,还是拿数仓为例首先就是数据同步工具,主流的一般有这种,sqoop(一般是小数据,比如维度表),nifi做实时同步和全量拉取都可以,datax也是可以的数据建模工具:hive,建模理论,实时计算:flink,kafka数据服务:ck,superset,hbase,impala以上只是要会的框架,对于开发语言Java,Scala,python基本上都要会点,对于后端的