岗位职责
【岗位信息有延迟,具体情况,以官网为准。】-负责构建大数据分析平台以及数据分析和挖掘工作 -负责基于百度数据的离线和实时流分析 -参与支撑业务的数据模型建设及数据指标的计算和分析 -参与海量数据的存储、查询和运营数据分析体系搭建 -运用Hadoop、Spark、ES等分布式计算和存储平台
岗位要求
【岗位信息有延迟,具体情况,以官网为准。】-计算机相关专业应届毕业生 -对Spark及Hadoop技术有深入了解 -熟悉Python/Java/Scala/Php等编程语言,熟练使用SQL,有良好的编码习惯,对分布式有深刻理解 -了解Windows、Unix、Linux等主流操作系统原理,熟练运用系统层支持应用开发 -技术视野开阔,有强烈的上进心和求知欲,善于学习和运用新知识,勇于解决难题 -善于沟通和逻辑表达,拥有优秀的分析问题和解决问题的能力,良好的团队合作精神和积极主动的沟通意识 -有激情,具有自我驱动力,追求卓越 具有以下条件者优先: -计算机领域相关的编程大赛获奖、专业期刊发表文章或者有发明专利等 -具备大数据云平台、计算存储平台、可视化开发平台经验,熟悉软件工程开发流程 -具备专业领域的计算机知识和技能: Storm/Hive/Hbase/Storm/Kafka等
牛客安全提示:如发现虚假招聘、广告,或以任何名义索要证件、费用,或诱导异地入职、参与培训等均属违法行为,发现请 立即举报