杨先生
上海寻梦信息技术有限公司·数据开发工程师
3分钟前
上次在线
100%
反馈率
1天
处理时长
在招职位 (3)
服务端研发工程师
900-1000元/天
上海
本科
岗位职责
1. 负责公司基础和业务的架构设计和研发工作,解决各类有技术挑战的问题,为产品和业务的发展提供最强有力的技术支撑;
2. 按照软件开发流程,根据产品和项目计划,完成所负责模块的架构设计、编码、测试和文档编写的全流程工作;
3. 持续优化系统架构,提高系统在高并发、高流量和分布式环境下的容灾容错能力,保证系统的高可用性、高可靠性和高扩展性;
4. 承担新技术预研和方案选型,参与关键技术点的攻坚工作,帮助团队内的技术推广。
岗位要求
1. 2025届应届毕业生,本科及以上学历,喜爱计算机以及互联网技术;
2. 扎实的数据结构和算法能力,熟悉常用的数据库技术;
3. 精通至少一种开发语言,并能熟练应用解决具体问题;
4. 有较强的学习能力,有强烈的责任心和自我驱动力;
5. 能及时关注并学习业界最新技术,具备良好的沟通能力和团队合作精神。
申请
大数据开发工程师开发
24-60K * 16薪
上海
本科
岗位职责
1、大数据基础平台、大数据能力开放平台、大数据交易平台的搭建与优化;
2、基于大数据平台(Hadoop)的数据仓库工具Hive/Spark/HBase, ETL调度工具,数据同步工具的开发、使用、集成和自动化运维,以及多租户与权限控制策略的实现;
3、研发基于大数据平台的数据仓库平台产品;
4、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。
5、利用大数据相关技术实现对数据的加工、分析、挖掘、处理、及数据可视化等相关工作。
6、推动团队内成员技术经验分享,关注相关前沿技术研究,通过新技术服务团队和业务。
岗位要求
1、本科以上学历,计算机相关专业,对数据处理、数据建模、数据分析等有深刻认识和实战经验
2、有hadoop、spark、flink等大数据平台的使用经验
3、java/scala至少熟练使用一种
4、熟练掌握Hadoop及Map-Reduce应用开发,熟练掌握HBase、Hive、Storm、spark等大数据开发工具
5、熟悉至少一种实时计算引擎 Storm,SparkStreaming, Flink, 对hadoop生态其他组件有一定了解,比如 HBase, hadoop, Hive, Druid等,熟悉Hadoop/Spark/Hive/HBase等大数据工具,主导过大型数据平台建设者优先;
6、精通SQL,熟悉常用的关系型数据库、非关系性数据库和数据仓库,具有SQL性能优化经验;
7、了解微服务开发理念、实现技术,熟悉常见设计模式,熟练掌握SSH开发框架,熟练进行Java、Python代码编写,熟悉多线程编程
8、有Hadoop/Hive/Spark/Storm/Zookeeper 等相关开发经验或从事分布式相关系统的开发工作
9、学习能力强,喜欢研究开源新技术,有团队观念,具备独立解决问题的能力,具备扎实的计算机理论基础, 对数据结构及算法有较强的功底
申请
算法工程师
24-60K * 16薪
上海
本科
岗位职责
【岗位职责】
我们致力于软件算法的研究设计,通过算法大幅改善产品体验和性能效。
岗位要求
【岗位要求】
1、具备人工智能AI算法、大数据算法、数据结构算法设计和开发能力;
2、具备前沿人工智能技术跟踪和业界趋势的跟踪和算法应用能力;
3、至少掌握 JAVA/PYTHON/C等其中一种开发语言,掌握Hadoop开源工具使用更佳;
4、至少掌握一种数据挖掘工具和深度模型训练工具,如Tensorflow,caffe,matla-b;
5、具备较强的动手实践能力,能够快速把想法用算法程序实现;
6、具备挑战不可能的精神和创新意识,主动担责,攻坚破难;
7、具备良好的团队合作精神,善于沟通。
申请