字节-推荐算法一面二面
7.25 上午一面
#秋招#
自我介绍;
详细询问当前实习的模型,引出对mmoe、esmm的细节提问,问还知道哪些多目标预估模型(ple、snr)
多目标预估的多个loss融合方式?(我答了斯坦福的pcgrad,或者加权融合loss。面试官补充说可以通过loss的收敛情况自适应加权)
position bias:如何判断推荐系统有position bias(看同一个item在不同位置的ctr),你还知道哪些bias?(selection bias、exposure bias、conformity bias、popularity bias)
对CNN、LSTM(bptt推导,不用现场推,记住公式即可)、self attention(为什么除以根号dk等)
senet的激活函数(我说就是两层sigmoid吧,面试官让我再想想?后来他说他好像记错了哈哈哈)
概率题:54张牌分3份,大小王在同一份的概率
代码题:二叉树的最大宽度
————
面完一分钟之后发信息通知二面,我直接约了当天晚上。但后来又开始后悔,想再多些时间复习的。不过还是硬着头皮上了
————
7.25 二面
自我介绍;
介绍一个你最有代表性的经历(我介绍了两年前实习做的推荐,并引出细节问题)
知道哪些做特征交互的ctr模型
基础:lr的推导、为什么用log loss不是mse loss
概率题:一个条件概率,比较简单
代码题:硬币划分
后面还有时间,问了召回里面的协同过滤。user和item协同过滤各有什么适合的场景?(我答:在item增长特别快的场景,如新闻推荐,用user协同过滤更好;反之亦然。面试官提示从冷启动方面想,即当user冷启的时候用item协同过滤更好)
——
面完20分钟收到三面通知,约了8.2🍀许愿过过过!!🎋
感觉字节的面试官很好很温柔,一面面试官很像去年实习时候的mentor,于是好感++。可能看我可爱,出的代码题也很温柔。希望三面面试官也很温柔!!