有赞一面凉经(机器学习算法)

本来面试官说要面30分钟,后来面了45分钟,大概是想确定到底给不给二面吧,不过答得不好,面完凉了。
记不***面试的问题,可能有遗漏,毕竟这些天凉面太多了。项目中有涉及强化学习、LSTM。

1. 逻辑回归相关问题
逻辑回归的损失函数是什么?(交叉熵损失)为什么?(因为引入sigmoid函数,如果使用MSE损失会使目标函数非凸,无法求解)
逻辑回归的求解时,梯度的维度是多少?(二维?)
逻辑回归为什么用sigmoid函数?(为了求出分类概率)为什么不采用其他函数(sigmoid函数对偏远值不敏感?)

2. 过拟合相关问题
过拟合解决的方法(L1,L2正则化,增加训练样本,特征选择)
L1,L2正则化原理(L1是假设参数服从拉普拉斯分布,L2是假设参数服从高斯分布)
L1为什么能使特征稀疏(L1范数,使权重为0,对应的特征则不起作用,使特征稀疏)

3. LSTM相关
LSTM和RNN区别是什么(LSTM缓解梯度消失问题)
BLSTM和LSTM区别(解决上下文语义问题)
GRU了解吗(不了解)
Batch normalization作用(1.使得输入规范化到有梯度的区间,防止梯度消失。 2.改变输入数据的均值和方差,起到数据增强的作用,防止过拟合)
CRF可以做实体识别吗(可以),那为什么要用BLSTM-CRF(额,没答上来),CRF和HMM的区别,CRF原理(项目中只是用到CRF,具体原理只懂一点)

4. 强化学习相关
DQN损失函数是什么(估值网络和目标网络的差值)
Double Q-learning的缺点是什么?(估值网络和目标网络同时高估动作值,高估现象同时存在?)
策略梯度损失函数是什么?(感觉没有损失函数,就是根据reward反向对动作概率对求导)
解释一下MC、TD、DP的区别?(MC要有完整的记录才更新,TD有片段也可以更新,DP是对下一时刻的每个状态都有估计。我又按照二叉树的图说了一遍,mc就是从根节点到叶节点,td就是根节点到下一个节点,dp就是从根节点到左子树右子树)

5. 其他
给了正类负类样本的得分,计算AUC

6. 排序
稳定的排序有哪些?不稳定的有哪些?
归并排序的时间复杂度,空间复杂度,归并排序的思想是什么。

目前还记得的只有这些,很多答得不太对,大家斟酌观看。

#面经##算法工程师##有赞##校招#
全部评论
梯度的维度是特征的维度吧?毕竟要给每个特征梯度下降。 不使用其他函数是应为逻辑回归是最大熵模型一种特殊情况,所以是sigmoid型的。 楼主什么方向啊?还问强化学习?
点赞 回复 分享
发布于 2019-09-06 20:15
可以看出来,遇到了一个面试官 哈哈哈
点赞 回复 分享
发布于 2019-09-07 18:19
马了,我觉得我和楼主的研究方向甚至项目都很相像哈哈哈哈哈哈,有赞也给我发面试了!祝我好运祝大家好运
点赞 回复 分享
发布于 2019-09-08 10:52
哇 我一面很基础很细,但感觉没你的难呢
点赞 回复 分享
发布于 2019-09-08 11:07

相关推荐

去B座二楼砸水泥地:不过也可以理解,这种应该没参加过秋招
点赞 评论 收藏
分享
点赞 39 评论
分享
牛客网
牛客企业服务