AIOps算法岗自省
1. 方差和偏差的区别
2. XGB原理
3. 防止过拟合的方法
4. 了解什么聚类算法,k-Means的缺点是什么
5. 了解Transformer的结构吗?
6. 有哪些优化器,Adam的原理?
7. 批归一化的作用?
2. XGB原理
3. 防止过拟合的方法
4. 了解什么聚类算法,k-Means的缺点是什么
5. 了解Transformer的结构吗?
6. 有哪些优化器,Adam的原理?
7. 批归一化的作用?
全部评论
aiops找得到工作吗
好兄弟最后做AIOPS了嘛
K-Means的缺点:比如拿DB-SCAN来距离,K-Means只能聚类严格抱成团的聚类,而没办法像DB-SCAN那样聚类成环的类。并且K-Means高度依赖初始设置的点。
优化器:SGD,Adam,Rmsprop。Adam叫做动量法或者冲量法,提出的原因是:有时候学习率太大一步会走错很多,所以Adam舍弃了线性函数而采用多项式(该点的泰勒展开式)来更贴近目标。不仅如此,他还考虑了在正确的方向上尽可能地加速,在错误的方向上尽可能地减速:将某个梯度方向上的历史数据大小加权求和,如果很长一段时间梯度大小都大于0,那这个方向说明没有问题需要加速,而如果经常正负交替这说明可能方向错误,则需要放缓抖动。
防止过拟合:早停,正则化,dropout
XGB原理:与GBDT对比起来讲,首先最大特色,GBDT是一阶导,但是XGB还会多求一个二阶导。然后XGB还支持并行(特征并行),在最开始就会计算出特征的分裂排序,不像GBDT需要不断重新排序。然后XGB还会对特征取子集,每次训练所用的特征不一样,训练量更小,也不容易过拟合。XGB的分类器有树还有线性分类器比如逻辑回归,线性回归,但是GBDT的分类器只有树。XGB有shrinkage策略,会不断衰减分类器性能。XGB即便有缺失值也能自动计算分裂方向但是GBDT不允许有缺失值。
首先,什么是方差什么是偏差? 方差就是你预测结果(很多很多结果)之间的方差,代表每次学习结果差别有多大;偏差就是你预测结果和真实结果之间的差距有多大。然后这两个东西跟“过拟合”和“欠拟合”有啥关系呢? 关系就是:泛化误差由方差、偏差^2和采集、模型误差构成,如果模型复杂度过高,则方差提高同时偏差降低,属于过拟合、如果模型复杂度过低,则方差降低而偏差提高,属于欠拟合。
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享
点赞 评论 收藏
分享