岗位职责
1、大数据基础平台、大数据能力开放平台、大数据交易平台的搭建与优化;
2、基于大数据平台(Hadoop)的数据仓库工具Hive/Spark/HBase, ETL调度工具,数据同步工具的开发、使用、集成和自动化运维,以及多租户与权限控制策略的实现;
3、研发基于大数据平台的数据仓库平台产品;
4、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。
5、利用大数据相关技术实现对数据的加工、分析、挖掘、处理、及数据可视化等相关工作。
6、推动团队内成员技术经验分享,关注相关前沿技术研究,通过新技术服务团队和业务。
岗位要求
1、本科以上学历,计算机相关专业,对数据处理、数据建模、数据分析等有深刻认识和实战经验
2、有hadoop、spark、flink等大数据平台的使用经验
3、java/scala至少熟练使用一种
4、熟练掌握Hadoop及Map-Reduce应用开发,熟练掌握HBase、Hive、Storm、spark等大数据开发工具
5、熟悉至少一种实时计算引擎 Storm,SparkStreaming, Flink, 对hadoop生态其他组件有一定了解,比如 HBase, hadoop, Hive, Druid等,熟悉Hadoop/Spark/Hive/HBase等大数据工具,主导过大型数据平台建设者优先;
6、精通SQL,熟悉常用的关系型数据库、非关系性数据库和数据仓库,具有SQL性能优化经验;
7、了解微服务开发理念、实现技术,熟悉常见设计模式,熟练掌握SSH开发框架,熟练进行Java、Python代码编写,熟悉多线程编程
8、有Hadoop/Hive/Spark/Storm/Zookeeper 等相关开发经验或从事分布式相关系统的开发工作
9、学习能力强,喜欢研究开源新技术,有团队观念,具备独立解决问题的能力,具备扎实的计算机理论基础, 对数据结构及算法有较强的功底