cvte nlp面经,希望最后可以上岸
先是问了槽信息的定义,简单说了一下,之后面试官进一步问如何用规则来获取槽信息。
接着问了道算法题,有一个城市名称列表,如何判断语句中是否出现了列表中的城市,一开始说了一种最简单的算法,但是时间复杂度很高,在面试官提示下提出用kmp算法来降低复杂度,面试官接着问有没有更好的方法,我已经想不出来了,面试官就给我介绍前缀树的做法。
接着问做文本表征特征的方法有什么,刚开始不是很清楚意思,询问下得知是想问类似word2vec的,我就说了词袋模型,面试官就问词袋模型有哪些不足的地方,我说了稀疏,无序,纬度爆炸,不能表达语义上的差别,面试官问还有吗,我思考了一下想不出来了,他就和我讲解每个词都是正交的,相当于每个词都没有关系。
接着问word2vec的两种优化方法,说下分层softmax是怎么做的。word2vec的优点和缺点,是如何解决oov的问题的,实际上word2vec如何使用,然后就问bert是怎么做的,和transformers的关系,他有什么好处,也问了如何解决oov的问题,bert的分词,简单说了bert的tokenizer输出的结果,他就问了bert这种分词叫什么,不会…然后他就和我讲解了。
接着问lstm,lstm和rnn有什么区别,解决了什么问题,lstm计算上是如何计算的,lstm输出的维度是怎么样的。
接着问常用的集成方法有哪些,问了其中一种如何实现。
接着看到我简历写了docker,就问了一下,我只是有一个比赛需要用docker做镜像来,就只是简单介绍了一下,平时也没有怎么用过。
面了大概一个小时,最后就到了我有什么问题环节,也耐心的和我讲,面试过程中还担心我没听清意思,经常和我解释,感觉面试官挺好的。
最后希望可以上岸啦!也希望耐心看的各位早日上岸💪
#广州视源电子科技股份有限公司##面经##校招##算法工程师#