boosting算法族之GBDT
GBDT 是通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。
训练过程:
GBDT是通过多次迭代,每轮迭代产生一个弱分类器(一般选择CART树),每个分类器在上一轮分类器残差的基础上进行训练。
如果我们选用平方损失函数,那这个差值就是残差。我们关注的是希望损失函数不断减小且尽可能快的减小,从而尽快的收敛到局部最优解或全局最优解,所以让损失函数沿着梯度方向减小,这就是GBDT的GB的核心。
GBDT 是通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。
训练过程:
GBDT是通过多次迭代,每轮迭代产生一个弱分类器(一般选择CART树),每个分类器在上一轮分类器残差的基础上进行训练。
如果我们选用平方损失函数,那这个差值就是残差。我们关注的是希望损失函数不断减小且尽可能快的减小,从而尽快的收敛到局部最优解或全局最优解,所以让损失函数沿着梯度方向减小,这就是GBDT的GB的核心。
相关推荐
双尔:秋招至此我拿到了三个offer,这几天拿到了秋招最快的一个offer。我之前一直陷在纠结里,感觉像站在分岔路口,不知道往哪走才对。
最终在美团饿了么和京东里面选了美团,毕竟是外卖的老大哥,虽然会比较累,但是一切都是值得的,不说了,我的外卖衣服头盔到了