腾讯新闻算法实习面经
项目主要用到了gbdt和LR,主要问的这两个模型
GBDT每轮拟合的是什么东西,GBDT做分类问题时又拟合的是什么东西(当时懵了,拟合的是梯度嘛?)
缺失值具体怎么做的,怎么考虑LR+L1作用
GBDT除了平方损失,还有什么损失函数
GBDT里的G代表什么,体现在哪里,XGboost在梯度上改进的地方
OneHot的作用:将特征映射到欧氏空间,更合理的计算距离或者相似度度量,表达上更合理 决策树不适合用onehot的原因:结点分裂时容易分散?不清楚
遇到一个具体问题时,选择什么模型,有哪些方面的考虑、依据
算法题:全排列、二分查找
在回忆面试过程的时候突然感觉到了一些凉的原因
当时问我GBDT拟合的是什么的时候,我说用平方损失函数的时候拟合的是定义的一个残差,然后问我回归时拟合的什么东西,
当时突然有点懵嘛,没有想出来,然后又问我,GBDT的G是什么意思,xgboost的改进,我随口就说出了拟合梯度,和xgboost泰勒展开到2阶balabala,说的很顺
现在才意识到问题所在,面试官肯定也是发现我讲的东西都是死背下来的理论,内部的原理根本没有理解。
所以大家在准备面试理论的时候,一定要在理解原理的前提下记忆,不要死背概念!!