华为AI工程师 三面面经
-------------------------------------------------------------------------
4.28 一面1.1h
-------------------------------------------------------------------------
今天的面试官小哥也很帅
普遍开头 自我介绍来一段 着重让介绍项目
从本科项目开始问
1、特征工程,你说你的xx项目提取了69个特征,那么你在怎么处理这些特征的? 疑似再问特征工程,事实上本科并么有做特征工程...直接其他paper提到的特征全部拿过来用了,我说处理特征前先分组进行了t检验
2、项目里提到了尝试了SVM、RF、XGBoost、RNN,你最后得到的最好的效果是哪个模型?其他模型效果不好有没有尝试去解决?SVM效果不好可能是因为更加适合于二分类问题,效果最好的是随机森林,扯了一哈集成学习的Boosting和baggging算法,RF效果更好的原因可能是因为没有强依赖的弱学习器之间简单的加权投票方式能达到更好的效果,RNN的话说本科刚接触lstm,就没花多长时间去调参了。。
3、提到了信号怎么处理特征的。把paper中两种策略求法说了一哈,着重问了类似于考虑上下文的环绕策略
4、面试官好像很喜欢问特征工程,一直深究我为什么没有做特征工程.
5、问了关于这项研究的其他研究目前进展如何?放过我把,虽然本科确实看了很多paper,但是真的不记得了
6、数据量跟特征工程的一些问题
研究生项目
1、楼主做代码生成的,问了相比于当前的代码生成任务有哪些改进点和创新点? 貌似回答了一个是从特定领域到通用程序语言合成
2、很喜欢问相关研究,这个领域其他研究进展如何,你了解哪些?幸好论文看得多。。说了一个基于GGNN和CNN的程序合成框架
3、模型的输入是什么,光听你讲太抽象了,能不能来点演示啥的?楼主打开了组会报告的PPT..
4、目前合成效果看起来不怎么好,你想要怎么改进它? 1、数据太重要了,想要重新抓数据,从特定领域扩充到通用领域 2、用群智算法做特征工程
5、不记得了 ,总之项目真的问了好多啊。。
-----------------------------------------------------------------------------------------
1、看你大学主修了自然语言处理 ,那你有做过文本分类、实体标注之类的实战吗?(面的是AI下面的NLP岗,估计是要问知识了)我说就了解过文本分类,他说文本分类太简单了...
2、了解一些语言模型吗? 说了词嵌入句嵌入的一些模型,word2vec, ELMo, Glove, Transformer,Bert (给自己挖了transformer的坑
3、果然,Transformer相比于RNN你认为有哪些改进? 我说self-attention很好的解决了RNN长依赖的问题,- -还有吗? ---emmm,multi-attention可以引入多头注意力机制 --还有吗?(真的不知道了,面试官说比如他们的模型训练效率之类的问题,他说RNN 每次时间步依赖于前一个时间步的值,所以效率不好,我忙着点头)
4、你刚刚提到了模型预训练和fine-tuning,那么我现在有个问题,预训练可能会要求很大的存储空间,那么我把模型运用到端的时候,有什么方法可以解决这个问题??(没事千万别给自己挖坑,题目都没听明白,这个不会)
5、机器学习当中可能会有欠拟合过拟合的问题,怎么解决过拟合问题? 对于传统的机器学习(rf,lr,svm)来说,一般靠引入正则化项来避免正则化问题,那么应用到深度学习里面,过拟合的解决方式主要有dropout、early-stopping、数据增强等,被小哥打断了,他说可以了
6、细问正则化的原理。以线性回归为例,说了正则化可以避免拟合的曲线太过复杂,通过惩罚特征的系数theta,L1有些时候可以使某些theta值趋向于0,从而防止过拟合。哎
7、应该没了 噢问了keras和tensorflow pytorch你用哪些,嗨呀,知识盲区啊,问了tensorflow2.0的新特性(QAQ)
--------------------------------------------------------------------------------------------------
手撕代码 括号匹配 ([])输出true这种, 先说了思路,楼主的原则是凡是能用额外存储空间绝对不想其他思路,于是用栈
楼主打开了某 JAVA IDE, 面试官:我还以为你要用python呢,没想到你用JAVA (凉,暴露了,强行解释目前的项目需要处理JAVA AST,所以用的Java,模型那边用python。。)
代码很快,在线表演debug十分钟,stack用add第一人。非常丢脸。
---------------------------------------------------------------------------------------------------
总结:一面真的基本全程项目,,昨天看了一天的机器学习深度学习,导致没有好好准备项目,项目回答得有点不咋地。
反问环节base 2 问: 1、 什么时候出一面结果(两天之内
2、对我有什么改进建议(你做的代码生成和我们这边得NLP不怎么相关,介绍了他们NLP的任务,让我好好去扩充 实体识别、意图识别、小模型?、序列标注、多任务训练、分词之类的知识。。
-------------------------------------------------------------------------
4.29 二面50min
-------------------------------------------------------------------------
今天的小哥也很帅 小哥好像很赶时间,自我介绍都被打断了,让我快一点
手撕代码: 给定一组温度值序列,返回一个数组,该数组每个点代表当前温度经过多少天以后能够升温,要求用O(n)时间复杂度,手撕代码又凉了,耽搁了很多时间
后面问我主要用什么神经网络,我说LSTM,于是
1、LSTM的结构描述一下
2、LSTM为了解决长依赖问题,引入了三个门,分别啥意思?
3、LSTM的超参数说一下
4、seq2seq除了LSTM编码,还有Transformer的编码结构,了解吗?(貌似这个是算法岗必问了
面试官很赶,但是面试官人帅心善,求给机会。
(他说主要考察对自己做的神经网络的底层原理了解程度,他觉得我答得还可以,但是手撕代码真的凉T.T)
-----------------------------------------------------------------------
4.30 业务主管面 40min
-----------------------------------------------------------------------
是个很严肃的女主管,本来以为是视频面,我开了摄像头,结果进去没看见主管的脸,她说电话面就好了,于是全程都是她看的见我我看不见她。
全程问项目项目项目,LSTM具体怎么做的?NLP了解吗?编码解码模型具体怎么实现的?嫌我说的不具体
甚至还做了算法题,求一个集合的所有子集,一共有多少个子集?(leetcode原题,说了思路但是没答好
后面继续问项目..
全程很严肃,我准备的200字华为吹小作文都没派上用场,一点家常不扯。甚至不让我问什么时候出结果。
我以为我挂了, 结果05/06让我三面过了。还是谢谢她,主管姐姐真漂亮。
许愿被捞,超越妹妹保佑。
后排表白弟弟(: