产品研发-大数据开发(J11394)

22K-28k
北京市
2024-12-26










岗位职责
1、参与大数据平台的设计、开发和维护,确保系统的高性能和高可用性。
2、编写和优化数据处理和分析的代码,保证数据处理的效率和准确性。
3、参与数据模型设计,构建数据仓库和数据湖。
4、开发和维护ETL(数据抽取、转换、加载)流程。
5、监控和优化数据处理任务,解决数据处理过程中的问题。
6、与数据科学家和产品团队合作,支持各种数据分析和机器学习项目。
2、编写和优化数据处理和分析的代码,保证数据处理的效率和准确性。
3、参与数据模型设计,构建数据仓库和数据湖。
4、开发和维护ETL(数据抽取、转换、加载)流程。
5、监控和优化数据处理任务,解决数据处理过程中的问题。
6、与数据科学家和产品团队合作,支持各种数据分析和机器学习项目。
岗位要求
1、计算机科学、软件工程、信息技术或相关专业本科及以上学历。
2、扎实的编程基础,熟悉Java、Scala或Python等编程语言。
3、熟悉Hadoop生态系统(如HDFS、MapReduce、Hive、HBase、Spark等)。
4、具备良好的SQL编写和优化能力,熟悉关系型数据库(如MySQL、PostgreSQL)和NoSQL数据库(如MongoDB、Cassandra)。
5、了解数据仓库和数据湖的基本概念和架构。
2、扎实的编程基础,熟悉Java、Scala或Python等编程语言。
3、熟悉Hadoop生态系统(如HDFS、MapReduce、Hive、HBase、Spark等)。
4、具备良好的SQL编写和优化能力,熟悉关系型数据库(如MySQL、PostgreSQL)和NoSQL数据库(如MongoDB、Cassandra)。
5、了解数据仓库和数据湖的基本概念和架构。