有赞一面凉经(机器学习算法)
本来面试官说要面30分钟,后来面了45分钟,大概是想确定到底给不给二面吧,不过答得不好,面完凉了。
记不***面试的问题,可能有遗漏,毕竟这些天凉面太多了。项目中有涉及强化学习、LSTM。
1. 逻辑回归相关问题
逻辑回归的损失函数是什么?(交叉熵损失)为什么?(因为引入sigmoid函数,如果使用MSE损失会使目标函数非凸,无法求解)
逻辑回归的求解时,梯度的维度是多少?(二维?)
逻辑回归为什么用sigmoid函数?(为了求出分类概率)为什么不采用其他函数(sigmoid函数对偏远值不敏感?)
2. 过拟合相关问题
过拟合解决的方法(L1,L2正则化,增加训练样本,特征选择)
L1,L2正则化原理(L1是假设参数服从拉普拉斯分布,L2是假设参数服从高斯分布)
L1为什么能使特征稀疏(L1范数,使权重为0,对应的特征则不起作用,使特征稀疏)
3. LSTM相关
LSTM和RNN区别是什么(LSTM缓解梯度消失问题)
BLSTM和LSTM区别(解决上下文语义问题)
GRU了解吗(不了解)
Batch normalization作用(1.使得输入规范化到有梯度的区间,防止梯度消失。 2.改变输入数据的均值和方差,起到数据增强的作用,防止过拟合)
CRF可以做实体识别吗(可以),那为什么要用BLSTM-CRF(额,没答上来),CRF和HMM的区别,CRF原理(项目中只是用到CRF,具体原理只懂一点)
4. 强化学习相关
DQN损失函数是什么(估值网络和目标网络的差值)
Double Q-learning的缺点是什么?(估值网络和目标网络同时高估动作值,高估现象同时存在?)
策略梯度损失函数是什么?(感觉没有损失函数,就是根据reward反向对动作概率对求导)
解释一下MC、TD、DP的区别?(MC要有完整的记录才更新,TD有片段也可以更新,DP是对下一时刻的每个状态都有估计。我又按照二叉树的图说了一遍,mc就是从根节点到叶节点,td就是根节点到下一个节点,dp就是从根节点到左子树右子树)
5. 其他
给了正类负类样本的得分,计算AUC
6. 排序
稳定的排序有哪些?不稳定的有哪些?
归并排序的时间复杂度,空间复杂度,归并排序的思想是什么。
目前还记得的只有这些,很多答得不太对,大家斟酌观看。