提前批面经和结果,字节(6)&京东(4)&好未来(3)

最新的进展,好未来提前批过了哈哈,说好了8月中旬出结果就真的等来了,也希望正在找工作的小伙伴都能拿到想要的offer,对于京东,估计还得在池子里泡泡哈哈。
图片说明

====================================================================================

过去一个多月投了不少简历,不过有回应的就5、6个,深感找工作的不易,不过一个月来也算有一些小的结果,所以心里还算镇定,不过希望大家也不要慌,好好沉淀,最后都会有的。我主要是找的算法方面的工作,方向有涉及强化学习、图之类的,项目中也用到了,所以面经主要会比较多关于这方面的问题。

字节(已意向书)

字节7月1号投的,一共面了6次,第一个部门到第二面的时候挂了,后面把我捞起来了,又换了个部门面了4面,非常感谢字节不断给机会,最后成功拿到意向书了,很开心,能有个好的结果。

  • 一面
    1、自我介绍
    2、介绍强化学习的项目(背景、动机、如何建模、输入输出和训练算法说了一遍,说完后面试官问了一些细节)
    3、说一下DQN吧(先说了q-learning,然后说了DQN的三点改进,以及存在的问题)
    4、说一下MC和TD的区别
    4、说一下value-based和policy-based的优缺点
    5、说一下SAC(这个说的不太好,原理、policy的训练、q网络的训练说的不太清楚,面试当时还没仔细学到这个算法)
    6、说一下GBDT(这里只说了一下目标函数比较简略)
    算法题
    一道概率题:三个盒子分别放的球为:“红 红”,“红 蓝”, “蓝 蓝”,第一次取出一个红球后,取出两个红球且为第一个盒子的概率(第一次遇到考概率题的情况,还算错了)
    给定一个n*n的字符盘,和一个字符串,看改字符串是否出现在字符盘中(这个还行,写出来了)
  • 二面
    1、自我接受,之后让介绍项目,项目完了就开始问强化学习
    2、AC算法的V网络和Q网络的目标函数
    3、TD3和DDPG的区别
    4、DQN和Sarsa的区别
    5、reforcement的目标和梯度是什么
    6、探索的epsilon固定不变的时候,DQN什么情况下学不到东西,举例子说明(说了一堆没答到点上,当时确实不知道)
    7、什么情况下,SARSE学的比DQN好,举例子说明(这个也没答好)
    8、前两个问题面试官看我不知道就不问了,接着他说,看你用过图卷积神经网络,那你说一下GCN的公式每个符号的意义吧,拉普拉斯矩阵为什么要做分解(额,光忙着看强化学习了,GCN这块没管,又没答上来)
    算法题
    算法题给定一个只读数组 l,长度是M,最小值是a,最大值是b,l 中的元素两两各不相等。给定内存 O(N) << M, 要求找出 l 的中位数。(当时还没怎么开始刷题,算法题也不会,没写好)

二面答得特别不好,被虐的惨兮兮,觉得自己太菜了,不过知道了自己哪一块没复习好也是值得的。收到感谢信以为与字节无缘了,后面也不打算投字节了,但是过了10天左右又收到HR的电话,就想着再试试吧。

  • 一面
    1、自我介绍和项目
    2、机器学习的各种优化器了解吧,说一下优缺点
    3、过拟合怎么解决
    4、说一下GBDT
    算法题:
    1、二叉树的前序和中序遍历序列,重建二叉树
    2、2、3、5为质因子,求第100个数

  • 二面
    1、问比赛细节
    2、GBDT、lightGBM区别
    3、有哪些方法可以使得RL训练稳定
    4、TRPO、PPO、SAC算法
    5、场景题:从三个不同的数据源中分别按比例将对应文档推荐给用户,使得用户的点击率最大,如何使用RL建模
    算法题:
    1、有两个很大的文本文件,里面存URL,求同时在两个文件中的URL集合
    2、一道类似求从左上角走到右下角的最短路径的动态规划题目

  • 三面
    1、自我介绍
    2、介绍SAC算法
    3、介绍比赛(组队情况、任务分工、最重要的特征、自己做了啥)
    4、贝尔曼期望方程(在牛客网的编辑器里写出公式)
    5、Actor和Critic的目标函数(写出公式)
    6、一般的策略梯度的目标函数和导数(写公式)
    算法题:
    1、求多叉树中两个节点的最近公共祖先
    2、一个只包含0和1的数组,求包含k个1的最长区间
    3、朴素贝叶斯了解吧?那你实现一下它吧(额,一下子有点懵,我说代码能力不好,面试官说你这样很危险哈,额,刚想硬着头皮写,面试官看我不想写,就说,那你说一下公式以及每个部分都怎么算的吧)

  • 四面(加面)
    以为三轮技术面就完事了,下一轮就该HR面了,没想到问了一下还是技术面,不知道是不是前面朴素贝叶斯没写代码,答得不好准备挂,再加面给个机会。
    1、 熟悉的机器学习算法有哪些?(LR、SVM、决策树啥的)
    2、讲一下LR吧
    3、LR一般怎么求解的?(答梯度下降)
    4、那你说一下批次梯度下降和随机梯度下降吧
    5、梯度下降法的缺点?
    6、LR能用梯度下降法得到全局最优解吗?
    算法题:
    1、不用递归,O(logN)时间复杂度,O(1)空间复杂度,实现pow(x, n)
    2、概率题:圆上任取三点,构成锐角三角形的概率

京东(offer审批中)

  • 一面
    1、自我接受
    2、谈了一下项目
    3、Adaboost、GBDT、XGB、LGB区别
    4、常用的线性分类算法有哪些
    5、常用的非线性分类算法有哪些
    6、GCN原理
    7、textRank说一下
    8、word2vec说一下
    9、过拟合的现象和解决方法
    10、ResNet,以及为什么能解决梯度消失问题
    11、场景题:在无上下文的情况下如何看两个词是否是同义词?
    算法题:
    1、乱序数据找第K大的数
    2、字符流采10个字符,保证每个字符的采样概率一样

  • 二面
    1、谈了强化学习的项目
    2、问了HMM(我说没用过所以不怎么了解)
    3、决策树、GBDT
    4、从多个角度分析l1和L2正则化为什么能防止过拟合
    5、CNN为什么比DNN好呢?
    6、看前面的记录说,你会bert是吧(一面场景题那里说了一下bert,说实话真不怎么了解哈),不过还是说了一下
    算法题:
    纸牌博弈问题

  • 三面(HR面,10分钟)
    1、自我介绍
    2、个人优缺点
    还有几个问题不记得了

  • 四面(技术面)
    突然又给我打电话约面试,我一面懵,不是已经HR面完成了吗?面试官也不知道,就约晚上8点又加了一轮技术面
    1、自我介绍、项目
    2、谈GCN相关这个项目
    3、问是否了解其他的图卷积神经网络,说了一下(GAT, 里面加了注意力机制)
    4、那你说一下self-attention吧
    5、说一下bert吧(好吧,前两轮技术面下来,面试官都觉得我会bert了,实际上还没仔细学呢,我就把我知道原理、怎么训练的,说了一下)
    6、bert的输入具体是啥?
    7、场景题:京东搜索里,输入一个关键词搜索某件商品,但是现有数据库里没有该关键词,该商品对应的是另一个关键词,这种情况下怎么解决?
    8、反问环节里问为什么又加了一轮技术面,面试官说他也不知道,就他同事给了一份简历让帮忙面一下,最后面试官说平常心对待,加面呢肯定是有原因,不好说。

好未来(面试结果审核中)

好未来面试效率很高哈,一下子把3轮的面试链接全发了,一轮面过了马上接着下一轮,不过就直接短信告诉你,就不用继续了。所以半天下来就面试完成了。

  • 一面
    1、自我介绍、项目
    2、讲SAC算法
    3、讲Actor和Critic算法
    4、怎么学的强化学习?看过哪些书?
    5、算法题:
    从一个数组中,找出所有长度不小于k的连续子序列中,最大的中位数

  • 二面
    1、自我介绍、项目
    2、主要讲比赛
    3、从初赛到复赛进步的主要原因是什么?
    4、怎么构造特征哈?怎么评估特征的重要性哈?交叉特征怎么验证有效性哈?
    5、讲回项目,讲GCN的原理,与CNN的区别
    6、讲SVM
    7、核函数怎么选择?
    算法题:
    求连续最长乘积子数组

  • 三面(HR面)
    HR小姐姐很热情,就大概聊了几分钟,最后快结束时还说辛苦了,快回去休息吧,对好未来好感倍增哈哈。

大概就这些啦,有很多还不足的地方,8月继续努力吧。

#面经##校招##京东##字节跳动##好未来##算法工程师#
全部评论
同学您好,请问好未来是牛客sp专场投的吗?
点赞 回复 分享
发布于 2020-08-07 22:08
你好,请问好未来第二面第四题您一般怎么回答?
点赞 回复 分享
发布于 2020-08-07 23:00
楼主请问下面这个算法题怎么做的呀 给定一个只读数组 l,长度是M,最小值是a,最大值是b,l 中的元素两两各不相等。给定内存 O(N) << M, 要求找出 l 的中位数
点赞 回复 分享
发布于 2020-08-08 10:42
楼主,好未来收到offer了吗
点赞 回复 分享
发布于 2020-08-09 15:14
京东我也加面了,也问的gcn相关项目。。。这么一比较感觉我凉了
点赞 回复 分享
发布于 2020-08-10 17:11
好未来up
点赞 回复 分享
发布于 2020-08-18 00:46
除了短信通知,请问 楼主收到录用意向书了吗?
点赞 回复 分享
发布于 2020-08-26 17:33

相关推荐

一、训练范式革新:动态计算图与自适应优化&nbsp;&nbsp;传统静态计算图难以应对大模型复杂计算流,2023年技术突破集中在:&nbsp;&nbsp;1.&nbsp;**即时编译(JAX+XLA)**:Google的**JAXformer**框架通过动态分区策略,在TPUv4集群上实现92%的计算资源利用率,较PyTorch静态图提升37%&nbsp;&nbsp;2.&nbsp;**梯度累积重参数化**:Meta的**GradRewrite**技术利用张量重映射算法,在OPT-175B训练中减少梯度同步次数58%,通信开销下降42%&nbsp;&nbsp;3.&nbsp;**自适应混合精度**:NVIDIA的**APEX&nbsp;Dynamic**方案实时监控梯度幅值,动态切换FP8/FP16精度模式,在BERT-large训练中节约显存39%&nbsp;&nbsp;前沿进展包括**符号微分加速器(SDA)**,如Cerebras的CS-3芯片内置微分引擎,在求解Jacobian矩阵时实现100倍于GPU的加速比。MIT提出的**Progressive&nbsp;Token&nbsp;Dropping**策略,通过重要性采样提前丢弃低贡献token,在ViT-22B训练中节省23%&nbsp;FLOPs。&nbsp;&nbsp;&nbsp;二、分布式训练体系:异构硬件的统一抽象&nbsp;&nbsp;跨设备训练面临内存一致性难题,最新解决方案涵盖:&nbsp;&nbsp;-&nbsp;**统一内存地址空间**:AMD的**Unified&nbsp;Memory&nbsp;Fabric**技术突破PCIe瓶颈,在MI300X集群实现1.5TB/s的GPU-GPU直连带宽&nbsp;&nbsp;-&nbsp;**异步流水线并行**:DeepMind的**PipeDream-2BW**采用双缓冲机制,在128节点集群中流水线气泡率降至4.2%&nbsp;&nbsp;-&nbsp;**动态负载均衡**:阿里云**ODPS-Mars**系统通过实时性能建模,在混合GPU/CPU集群中提升任务调度效率31%&nbsp;&nbsp;工业界标杆案例:字节跳动**Volcano&nbsp;Engine**采用**分层参数服务器**架构,支持万亿参数模型训练,通过稀疏梯度聚合算法将通信量压缩至原始值的6.7%。&nbsp;&nbsp;&nbsp;三、推理引擎设计:编译优化与硬件感知&nbsp;&nbsp;模型服务面临编译器优化天花板,突破性技术包括:&nbsp;&nbsp;1.&nbsp;**计算图手术(Graph&nbsp;Surgery)**:TensorRT-9.0引入动态OP融合策略,针对LLaMA-70B实现41%延迟降低&nbsp;&nbsp;2.&nbsp;**硬件感知量化**:Qualcomm的**AIMET&nbsp;2.0**工具链通过芯片级指令分析,在Snapdragon&nbsp;8&nbsp;Gen3实现INT4量化下98.2%精度保留&nbsp;&nbsp;3.&nbsp;**即时内核生成**:OpenAI的**Triton&nbsp;3.0**编译器支持动态模板扩展,在A100上实现FlashAttention-V2的2.7倍加速&nbsp;&nbsp;创新案例:Groq的**LPU架构**采用确定性执行模型,在推理Llama2-70B时达成250&nbsp;tokens/sec的单卡吞吐,时延波动小于±1.5%。&nbsp;&nbsp;&nbsp;四、内存革命:从显存扩展到底层介质创新&nbsp;&nbsp;突破显存墙的关键技术路径:&nbsp;&nbsp;-&nbsp;**计算存储融合**:Samsung的**HBM-PIM**芯片在内存单元集成3000个计算核心,矩阵乘加操作能效比提升28倍&nbsp;&nbsp;-&nbsp;**非易失内存编程模型**:Intel的**Optane&nbsp;DIMM**配合PMDK库,实现模型参数持久化存储,恢复训练时间从小时级降至分钟级&nbsp;&nbsp;-&nbsp;**梯度压缩传输**:华为的**HiCOOM**协议使用3D-SPHINX编码,在昇腾集群中梯度通信效率提升5.8倍&nbsp;&nbsp;学术界突破:UC&nbsp;Berkeley的**ZeRO∞-HD**方案通过异构内存分页技术,在单节点支持260B参数训练,显存占用仅31GB。&nbsp;&nbsp;&nbsp;五、多模态推理加速:跨引擎联合优化&nbsp;&nbsp;跨模态场景的端到端优化方案:&nbsp;&nbsp;1.&nbsp;**跨引擎流水线**:NVIDIA的**Picasso**框架统一CUDA与DLA加速器,在Stable&nbsp;Diffusion&nbsp;XL推理中实现23it/s的吞吐&nbsp;&nbsp;2.&nbsp;**模态感知调度**:微软**Babel**系统通过运行时特征分析,自动分配视觉/语音模态到对应加速单元,延迟降低44%&nbsp;&nbsp;3.&nbsp;**统一张量表示**:Apache&nbsp;TVM的**Unity&nbsp;IR**支持跨框架张量格式转换,在多模态模型部署中减少序列化开销67%&nbsp;&nbsp;生物计算突破:DeepMind的**AlphaFold3**采用几何张量网络,在蛋白质-核酸复合体预测中RMSD误差降至0.89Å,推理速度较v2提升3倍。&nbsp;&nbsp;&nbsp;六、软硬协同新范式:从芯片到算法的垂直整合&nbsp;&nbsp;2024年技术融合趋势:&nbsp;&nbsp;-&nbsp;**存算一体架构**:Tesla&nbsp;Dojo&nbsp;2.0集成1.2亿个SRAM计算单元,支持4D张量原位计算,能效比达102&nbsp;TFLOPS/W&nbsp;&nbsp;-&nbsp;**光子矩阵引擎**:Lightelligence的**OptiCore**光子芯片在矩阵乘法任务中实现1.3&nbsp;POPS/mm²的面积效率&nbsp;&nbsp;-&nbsp;**可微分硬件**:Tenstorrent的**Grayskull-2**芯片支持反向传播硬件加速,训练ResNet-152速度达A100的2.3倍&nbsp;&nbsp;学术界新方向:Stanford的**Algorithm-Architecture&nbsp;Co-Design**方法论,在DNA序列预测任务中实现算法精度与硬件效率同步提升80%。&nbsp;&nbsp;七、技术演进图谱:2025前瞻性技术布局&nbsp;&nbsp;1.&nbsp;**量子神经网络**:IBM&nbsp;Quantum的**QNN-Hybrid**架构在量子退火机上实现128qubit梯度计算&nbsp;&nbsp;2.&nbsp;**神经形态计算**:Intel&nbsp;Loihi&nbsp;3芯片模拟生物神经元动态,在脉冲神经网络训练中能效比达350&nbsp;TOPS/W&nbsp;&nbsp;3.&nbsp;**分子级三维集成**:TSMC的3DSoIC技术实现1μm间距芯片堆叠,计算密度突破1000&nbsp;TOPS/mm³&nbsp;&nbsp;当前技术竞争已进入全栈深度整合阶段,开发者需构建覆盖算法创新、编译器优化、芯片架构的立体知识体系。建议重点关注**计算-存储-通信三角定律**的平衡设计,这是下一代大模型基础设施的核心突破点。&nbsp;&nbsp;&nbsp;#大模型#&nbsp;&nbsp;#模型部署#
点赞 评论 收藏
分享
评论
4
60
分享

创作者周榜

更多
牛客网
牛客企业服务