我是这么理解的,adaboost是前向分布算法+指数损失函数,gbdt是前向分布算法在较难优化的损失函数情况时的一种近似的优化,用损失函数的负梯度作为残差的近似值,用到泰勒一阶展开,xgb支持任意损失函数,只要一阶二阶可导即可,用到泰勒二阶展开。

相关推荐

给🐭🐭个面试机会吧:嘿,mvbatis
点赞 评论 收藏
分享
MScoding:你这个实习有一个是当辅导老师,这个和找技术岗没有关系吧?
点赞 评论 收藏
分享
牛客网
牛客企业服务