数据仓库 - 转转 - 一面凉经

面试流程

自我介绍

Python 中,如何在数据清洗过程中应对内存不够的情况

如何避免,在使用Pandas处理大规模数据时,经常会遇到“SettingWithCopyWarning”警告

在Hive中,当您使用动态分区功能进行数据插入时,可能会遇到“too many dynamic partitions”错误,如何处理

在Apache Spark中,宽依赖(Wide Dependency)和窄依赖(Narrow Dependency)是两种不同类型的依赖关系,对性能分别有什么影响

在使用Kafka作为消息队列时,消费者出现重复消费的问题是比较常见的,分析原因,怎么处理

在使用Kafka拦截器(Interceptors)时,需要注意什么,以确保其正确性和效率

reduce 的阶段,长时间卡在99%,分析原因,如何排查

Spark 运行任务,出现小文件的问题,如何处理

数据治理过程中,需要下线重复指标,如何验证下游不会受到影响

Jenkins 如何避免多分支冲突

数仓设计中,如何设计 ODS 和 DWD 层的字段颗粒度

从 MySQL 导入数据至 Hive,使用 Scoop 如何解决数据不一致问题

DQC 告警如何判断

如何权衡小文件处理过程中的时间 、 空间 、 资源消耗

数据治理中,代码之外,哪些地方可以优化

看板口径整合,数据一致性如何保障

成果中的指标变化,数据计算方式和来源具体讲解

数据变化是如何评估的

思维题:设计一个高并发的日志采集和分析系统,要求使用 Flume、HDFS、Kafka,分析并详细讲解技术选型,在这个场景中,针对数据丢失的情况,如何做预防,设计一些方法思路

反问环节

全部评论
官网投的吗
点赞 回复 分享
发布于 03-29 21:32 山东

相关推荐

03-27 10:40
美团_后端
学历要求:大学本科实习要求:立即到岗,实习6个月以上经验要求:不限岗位职责:1、参与大规模数据清洗、处理及分析流程的设计与开发,编写高效数据清洗脚本,确保数据质量和处理效率;2、完成数据清洗规则实现、异常数据修复及结构化数据转换;3、优化数据处理性能,解决高并发、海量数据场景下的技术挑战;4、协同产品、算法等团队,推动清洗方案落地并输出标准化文档;5、参与数据质量监控工具开发,实现自动化清洗流程。岗位要求:1、掌握hadoop、hive、spark、flink一种或者几种平台或组件的开发经验;2、掌握数据仓库、ETL开发相关技术和原理,有实时计算经验优先;3、掌握JAVA、Python或Scala语言之一,对数据结构和算法设计有较为深刻的理解;4、较强的学习、分析和解决问题能力,良好的团队意识和协作精神,有较强的内外沟通能力。岗位亮点:1、从理论到实践:将学校中的数据处理经验应用于真实业务场景,积累工业级项目经验;2、技术快速成长:接触 大规模数据处理技术栈,掌握 大数据处理 高阶开发技巧;3、成果可见:参与美团核心业务建设,跟随业务一起高速成长,直接参与核心数据分析,产出代码及分析的结果将直接与业务场景结合;4、团队氛围好:整体年轻化,有大量的共同语言,可以一起成长,尊重各自成员的个性化诉求;感兴趣的同学可以直接私聊我,简历可以直接到面试官!
投递美团等公司7个岗位
点赞 评论 收藏
分享
点赞 评论 收藏
分享
评论
2
3
分享

创作者周榜

更多
牛客网
牛客企业服务