暑期实习还愿贴
阿里小蜜(提前面):
因为主要做对话,所以对我的对话项目感兴趣,但是我在这个的项目工作实在太少,回答不理想。接着问我为什么BERT能做的很深,列举了BERT中的残差结构,问我还有哪些。我说了self-attention 能并行计算,这样可以在大语料上训练,缓解过拟合,另外layer normalization也有帮助,好像不太满意,然后问深度学习中怎么缓解梯度消失。接着问还知道哪些文本匹配的算法,我说不知道了。
腾讯:
一面:堆排序、二叉树的公共祖先、第k大的数
介绍BERT(encoder,decoder讲了一下),问了transformer、rnn和lstm区别与联系(胡扯了一下)
项目。感觉这次是项目说的最好的一次,还问了创新点在哪里
二面:
问了crf(简历上写了但不会,硬伤),关系抽取了解吗(不了解),lstm和gru的区别(并不熟悉),除了文本分类还有其他nlp的任务吗(尴尬,nlp任务做的太少),如ner。domain adaption、multi-task和transfer learning的区别(简历有但没仔细准备)。然后对项目一顿diss,匹配项目就是下载模型跑一下吗。可能还问了xgboost和gbdt吧
复杂链表的复制、二叉树的路径和(非递归)
美团:
一面:
先做题:最大矩阵面积
讲一下LR,为什么用mle求参数,怎么求(梯度下降、牛顿法和拟牛顿法),讲下牛顿法和拟牛顿法区别。怎么防止过拟合,l1和l2为什么防止过拟合,分别是什么分布,为什么参数越大模型越复杂 ,l1为什么产生稀疏解(用图解释),为什么经验损失加结构损失等价两个图的交点。就是不停问为什么,把LR相关的知识点问完了,基础知识挖的很深。然后问了BERT相关,为什么ALBERT使用动态mask,对预训练模型的相关经验等
二面:
主要对项目进行细问,问了具体工作和解决问题的方式
算法题:k长连续字段和(墨迹半天没清晰思路,最后暴力解决还在边界处理上除了问题(INT_MAX))
微软:
一面:
反转链表、中序遍历(非递归)、重建二叉树,使得节点值为其子树节点和
二面:
问实习项目
excel的列变换
58同城:
一面:
Linux命令:查找多个文件夹中目标文件,文件中列按空格分割,怎么输出第二列
python的装饰器和__call__函数,list和tuple,model怎么调用forword函数
样本不平衡解决方法,怎么防止过拟合
bert两个预训练任务的损失函数、loss怎么处理(相加)、mask为什么有10%保留原词,10%替换其他词,会干扰吗
LN和BN、word2vec和glove、dropout(4,5点只能答出2,3点)
算法题:旋转数组,链表的交点
二面:
大文件找前1000大个数,另一个算法题要用到set
问项目
三面:
大文件中每行一个ip地址,找出出现次数最多的前200个ip
熟悉spark吗(不熟悉)
问项目
快手:
自我介绍(要准备)
依次介绍三个项目(要书面准备)
介绍XGBoost(要准备)
快排(引用传参)
x, y都服从[0,1]上的均匀分布,且相互独立,求x+y的分布
百度:
一面:
问了transformer的encoder和decoder,几种attention的具体实现
BERT的优点,怎么对预训练任务的改进
算法题:判断链表是否有环
二面:
讲下SVM,软间隔、核函数
算法题:旋转数组
三面:
最优成就的一个项目,最遗憾的一个项目
面对压力怎么办,和同学,老师意见不一致怎么办
和不同部门怎么协调沟通,要数据不给怎么办
喜欢什么样的工作氛围,压力最大时是怎么处理的,职业规划