【中信银行总行】【大数据】【社招】海量职位 闪电内推
【内推】中信银行总行信息科技岗-大数据相关职务招人啦!
福利多多,闪电内推,真实有效,还有大量空缺,截止时间2020年10月,欢迎大家多投简历!!
职位信息如下,要求年龄35岁以下,学历至少是统招本科。
ETL工程师-大数据方向
岗位职责:
1、负责ETL的设计和实施;
2、负责数据准确性的检查和核对;
3、参与数据管控和数据治理
4、 熟悉数据库设计与开发的基本原理和基本概念,掌握并遵守我行发布的数据开发规范,深入了解Hadoop、Hive、Spark等技术组件原理并具备模式设计、表设计等能力;具备程序优化能力和应用开发技巧。
5、 能根据需求确认分析文档等交付物完成程序测试与开发。
任职资格:
1、大学本科以上,计算机相关专业
2、3年以上ETL开发经验
3、熟悉数据仓库架构,熟悉数据建模理论和方法,并具有1年以上数据仓库/数据集市建设经验
4、掌握基于Hadoop、Hive、Spark等大数据组件的ETL开发方法
5、有良好的沟通和表达能力
Hadoop开发工程师
岗位职责:
1.搭建基于Hadoop/HBASE/SPARK的大数据平台;
2.管理Hadoop/SPARK集群运行,稳定提供平台服务;
3.解决Hadoop/SPARK开发中技术难点。
4.解决实时计算相关问题,并根据业务场景设计实时计算流程架构并开发相关计算逻辑。任职资格:
1.3年以上Hadoop及大数据生态圈实践经验,如Kafka/HBase/Impala/YARN/Spark等,且对于spark streaming、storm等实时计算框架熟悉
2.深入了解分布式系统、大数据平台等高可用高弹性架构
3.有数据仓库项目经验,了解数据仓库相关理论知识;
4.有ETL工具、Kettle的项目使用经验。
5.熟悉Linux系统,具备shell、python等脚本开发能力
6.强烈的责任心和自我驱动意识,具备独立解决问题的能力
7.良好的团队合作精神和沟通能力
实时计算开发工程师
岗位职责:
1.基于storm、spark streaming或flink计算框架,根据公司业务需求设计实时计算应用。
2.为公司已成型的产品做持续地迭代优化。
任职资格:
1. 2至3年java开发经验,具备扎实的程序设计基本功和学习能力
2.精通storm、spark streaming或flink计算框架,能够进行流计算应用开发,熟悉实时数据分析上下游生态系统或周边相关技术, 包括但不限于hadoop、yarn、storm、spark streaming和flink等相关技术
3.有两年以上的实际Storm、spark集群维护,系统优化和应用开发经验. 对性能,稳定性等有实际经验;
4. 熟悉Redis数据结构,并有实际应用经验
5. 熟悉kafka理论及工作原理,并有实际应用经验
6. 熟悉Linux/Unix平台上的开发环境;
7. 有强烈责任心,认真负责,积极主动的解决问题
简历请投至710233150@qq.com!
简历请投至710233150@qq.com!
简历请投至710233150@qq.com!
简历请投至710233150@qq.com!