春招平安寿险NLP算法工程师一面

背景:
本科985 EE
澳洲八大水硕
无竞赛top无paper一份平安科技实习

代码题:
给定 sub_string_list,判断能否组成target string。递归实现dfs思想,有点bug,面试官说基本差不多了继续。

项目一:

  1. 介绍一下word confusion network

  2. embedding如何学到语音信息,为什么不用拼音来学。

  3. 对比的baseline是什么,Word2vec,fasttext不能冻结emb不知道嘛? (知道,所以我后面用了transformer做对比实验)

  4. 介绍一下transformer结构和bert的结构(blablabla能说的都说了)

  5. 我说到多头的效果其实是存疑的,他说不是的,bert之前多头就广泛应用了,我没有继续说。

所以没有问bert源码,也没问word2vec源码,也没问其他细节,因为被怼项目的意义不大,不如分离先做纠错模块再做NLU

项目二:

  1. LSTM具体的结构一点一点细说

  2. PGN怎么解决OOV问题?

  3. vocab_size为什么会减小?是不是理解成取topn个词频最大的?每一步的vocab怎么构建?

  4. 其他的copynet方式有了解么?(No)

  5. 重复文本生成怎么解决的。

其他相关:

  1. bert变种有了解么(介绍了一下roberta和xlnet针对mlm的问题的改进,讲了讲DisliBERT,但是具体细节没讲,因为不知道...)

  2. 知识蒸馏的应用(同构蒸馏,模型压缩之类)

  3. 知识蒸馏的具体过程(从公式开始讲,teacher的soft prediction之类的,还有损失函数的构建)

  4. EDA有了解么(只知道同义词替换这类的,没有详细了解)

  5. 样本分布不均怎么解决(重采样:分层抽样,重加权:focal loss之类)

  6. 降低过拟合的方式(模型层面降低复杂度:dropout,正则化等等,数据层面确保测试集训练集分布一致:降噪之类)

  7. 讲讲batch norm(从norm到batchnorm到layernorm)

提问面试官:

  1. 组内业务是什么

  1. 实习时候的一些关于对话系统业务上的疑惑

面试官点评:

感觉我有点紧张,准备没有很充分所以没有很满意,肯定会给过但是下一面他leader非常非常严格已经挂了很多人,不好好准备肯定挂掉。

总结:

面试官风格属于业务导向:一面几乎没有问项目相关的基础知识例如word2vec, fasttext, beam decode, seq2seq ,hmm这一类,问的全是项目的细节(但是他说还不够细。。他leader会问得更细,难道二面可能会让我白板手写代码公式?)。很多时候我的表述也不太清楚会导致拖沓。

本来中途面试官表示时间差不多了,但是又继续问了一些问题,猜测可能是濒临挂的边缘他决定再让我试试,平安寿险的NLP确实是强

实习期间几乎没刷题,第一道题不难但是差点没做出来,很悬。

继续努力吧。


#面经##校招##平安人寿##算法工程师#
全部评论
不错啊。后来呢。。。
点赞 回复 分享
发布于 2021-08-19 11:42
请问二面是什么情况呢 让我准备三份简历 还有奖励证书啥的
点赞 回复 分享
发布于 2023-11-24 12:39 广东

相关推荐

3 23 评论
分享
牛客网
牛客企业服务