【面经】蚂蚁 OceanBase Java日常实习

base杭州,记得是 Java 后端岗

时间线:

  • 24.11.11 投递
  • 24.11.19 打电话约面
  • 24.11.26 一面
  • 24.11.28 挂

上一次发被屯掉了,重发一下

11.26 蚂蚁 OceanBase 一面 50min

是面试这么多家体验最好的一家,面试官会把节奏交给面试者,然后能找到项目里很有价值的优化点进行提问,能够让你进行拓展并进行项目优化的合理思考(场景思考),而不是单独地去问八股,感觉就像和他在交流一样,很能让人放松去大胆表达,面完之后感觉过不过已经无所谓了,面不过我也想好好沉淀,不愧是大厂面试官。

本场面试为电话面试,全程没有开启摄像头。

自我介绍2分钟后,问我更偏向哪个系统,挑一个更想讲的?我说都可以介绍,于是就先后介绍了两个项目。

项目 20min

项目1 10min

大概花了2分钟介绍项目与自己的工作。

假设你现在一个后台的定时同步,在同一时刻,它需要同步的数量很大,你刚才也说了会超过最大线程数,那么你设置的抛弃策略是?(我回答使用 Abort Policy,抛出异常并后续优化告警)提供一些拒绝策略了解过吗?

项目2 10min

也大概花了2分钟介绍项目与自己的工作。

  • 把OOM这个问题展开一下,就是遇到什么问题,然后怎么解决的? 听你说到你的一个解决思路是通过去查看垃圾回收,然后释放资源对吧?那你对垃圾回收机制了解吗?
  • 能简单介绍下使用 Redis 可能引入的问题吗?

八股 5min

  • 在使用这些常见组件(如Redis)有没有尝试过去阅读一下他们的项目源码?
  • 你对spring cloud和spring boot这两个有什么理解?

算法 20min

一个白板面试,题目二选一,两道 mid 题:反转链表 II

反问 5min

  • 面试表现和学习建议?
  • 什么业务?OceanBase 云平台的数据迁移功能(Java)

全部评论
电话面试怎么写算法题呀
1 回复 分享
发布于 03-13 15:30 广东
接好运
点赞 回复 分享
发布于 03-19 16:28 山东

相关推荐

点赞 评论 收藏
分享
大模型幻觉(Hallucination)是指模型生成与事实不符、缺乏依据或逻辑混乱的内容,其产生根源可从多个维度分析:数据驱动缺陷训练数据的噪声与偏见:大模型依赖海量互联网文本训练,而网络数据本身包含错误信息、主观偏见、过时知识甚至虚构内容。模型无法辨别数据真伪,可能将错误模式内化为“知识”。长尾知识覆盖不足:即使训练数据规模庞大,某些冷门领域或细节知识仍可能缺失。当模型被迫生成此类内容时,可能通过“脑补”填补空白,导致虚构。数据时效性滞后:模型训练存在时间差(如GPT-4数据截止到2023年10月),无法获取最新事件或研究成果,可能生成过时信息。概率生成的本质:模型通过最大化token预测概率生成文本,目标是“流畅合理”而非“真实准确”。当高概率路径与事实冲突时,模型优先选择语言连贯性。缺乏现实世界感知:模型仅学习文本间的统计关联,缺乏对物理世界、因果关系或社会常识的深层理解。例如,可能生成“太阳从西边升起”的合理句式,但违背常识。自回归生成误差累积:生成过程逐步依赖前文,早期错误(如错误的前提假设)会导致后续内容偏离事实,形成“幻觉链”。训练目标与评估偏差损失函数局限性:训练时以预测下一个token的准确性为目标,未直接优化事实正确性。模型擅长模仿语言模式,但缺乏事实核查能力。缺乏显式知识验证机制:传统架构未内置实时知识检索或逻辑推理模块,无法在生成过程中交叉验证信息真实性。应用场景的复杂性模糊性指令的过度泛化:当用户需求模糊(如“写一篇关于量子物理的论文”)时,模型可能虚构术语、引用不存在的文献以完成响应。对抗性提示诱导:特定提问方式(如“请描述历史上不存在的某场战争”)可能触发模型的创造性生成模式,混淆虚构与事实边界。缓解幻觉的常见策略知识增强:引入检索增强生成(RAG),实时调用权威数据库辅助生成。强化对齐:通过RLHF(基于人类反馈的强化学习)优化模型对“真实性”的偏好。不确定性标注:让模型主动标记低置信度内容,如“据某些资料显示…”。 #牛客激励计划#  #AI产品经理#  #产品经理#  #聊聊我眼中的AI#  #聊聊我眼中的AI#  #如果可以选,你最想从事什么工作# #牛客AI配图神器#
点赞 评论 收藏
分享
评论
1
3
分享

创作者周榜

更多
牛客网
牛客企业服务