暑期实习还愿贴

阿里小蜜(提前面):

因为主要做对话,所以对我的对话项目感兴趣,但是我在这个的项目工作实在太少,回答不理想。接着问我为什么BERT能做的很深,列举了BERT中的残差结构,问我还有哪些。我说了self-attention 能并行计算,这样可以在大语料上训练,缓解过拟合,另外layer normalization也有帮助,好像不太满意,然后问深度学习中怎么缓解梯度消失。接着问还知道哪些文本匹配的算法,我说不知道了。

腾讯:

一面:堆排序、二叉树的公共祖先、第k大的数

介绍BERT(encoder,decoder讲了一下),问了transformer、rnn和lstm区别与联系(胡扯了一下)

项目。感觉这次是项目说的最好的一次,还问了创新点在哪里

二面:

问了crf(简历上写了但不会,硬伤),关系抽取了解吗(不了解),lstm和gru的区别(并不熟悉),除了文本分类还有其他nlp的任务吗(尴尬,nlp任务做的太少),如ner。domain adaption、multi-task和transfer learning的区别(简历有但没仔细准备)。然后对项目一顿diss,匹配项目就是下载模型跑一下吗。可能还问了xgboost和gbdt吧

复杂链表的复制、二叉树的路径和(非递归)

美团:

一面:

先做题:最大矩阵面积

讲一下LR,为什么用mle求参数,怎么求(梯度下降、牛顿法和拟牛顿法),讲下牛顿法和拟牛顿法区别。怎么防止过拟合,l1和l2为什么防止过拟合,分别是什么分布,为什么参数越大模型越复杂 ,l1为什么产生稀疏解(用图解释),为什么经验损失加结构损失等价两个图的交点。就是不停问为什么,把LR相关的知识点问完了,基础知识挖的很深。然后问了BERT相关,为什么ALBERT使用动态mask,对预训练模型的相关经验等

二面:

主要对项目进行细问,问了具体工作和解决问题的方式

算法题:k长连续字段和(墨迹半天没清晰思路,最后暴力解决还在边界处理上除了问题(INT_MAX))

微软:

一面:

反转链表、中序遍历(非递归)、重建二叉树,使得节点值为其子树节点和

二面:

问实习项目

excel的列变换

58同城:

一面:

Linux命令:查找多个文件夹中目标文件,文件中列按空格分割,怎么输出第二列

python的装饰器和__call__函数,list和tuple,model怎么调用forword函数

样本不平衡解决方法,怎么防止过拟合

bert两个预训练任务的损失函数、loss怎么处理(相加)、mask为什么有10%保留原词,10%替换其他词,会干扰吗

LN和BN、word2vec和glove、dropout(4,5点只能答出2,3点)

算法题:旋转数组,链表的交点

二面:

大文件找前1000大个数,另一个算法题要用到set

问项目

三面:

大文件中每行一个ip地址,找出出现次数最多的前200个ip

熟悉spark吗(不熟悉)

问项目

快手:

自我介绍(要准备)

依次介绍三个项目(要书面准备)

介绍XGBoost(要准备)

快排(引用传参)

x, y都服从[0,1]上的均匀分布,且相互独立,求x+y的分布

百度:

一面:

问了transformer的encoder和decoder,几种attention的具体实现

BERT的优点,怎么对预训练任务的改进

算法题:判断链表是否有环

二面:

讲下SVM,软间隔、核函数

算法题:旋转数组

三面:

最优成就的一个项目,最遗憾的一个项目

面对压力怎么办,和同学,老师意见不一致怎么办

和不同部门怎么协调沟通,要数据不给怎么办

喜欢什么样的工作氛围,压力最大时是怎么处理的,职业规划

自己的优缺点,怎么改进

另外,有了解百度内容策略部等大佬吗?这个部门和美团的搜索与nlp中心比怎么样啊?
#美团##实习##面经##腾讯##快手#
全部评论
恭喜楼主 楼主这是什么岗位呀
点赞 回复 分享
发布于 2020-04-30 15:45
楼主你好,请问你是岗位是什么?
点赞 回复 分享
发布于 2020-04-30 15:47

相关推荐

dongsheng66:如果想进大厂的话,在校经历没必要占这么大篇幅,可以把专业技能单独放一个专栏写,可以加个项目经历
点赞 评论 收藏
分享
点赞 15 评论
分享
牛客网
牛客企业服务