首页 > 试题广场 >

下列关于 GBDT 的说法,正确的是()

[单选题]
下列关于 GBDT 的说法,正确的是()
  • GBDT 中的树都是分类树,但是 GBDT 也能用于回归问题
  • GBDT 的优点在于高度并行化,易于分布式实现
  • GBDT 主要关注于降低方差
  • GBDT 中采用的是 CART 决策树
A. 错误。GBDT(Gradient Boosting Decision Tree)是一种基于决策树的集成学习方法,既可以用于分类问题,也可以用于回归问题。在 GBDT 中,使用的树通常是回归树 ,即使是在分类任务中,GBDT 也会通过回归树拟合残差或梯度来逐步优化模型。
B. 错误。GBDT 的训练过程是串行的 ,即每棵树的训练依赖于前一棵树的结果(通过拟合残差或梯度)。这种串行特性使得 GBDT 不像随机森林那样容易并行化或分布式实现。虽然某些实现(如 XGBoost、LightGBM)通过工程优化提高了并行性,但 GBDT 本身并不天然支持高度并行化。
C. 错误。GBDT 的核心思想是通过逐步拟合残差或梯度来减少模型的偏差(Bias),而不是直接降低方差(Variance)。相比之下,随机森林(Random Forest)更关注于降低方差,因为它通过对多棵树的结果取平均来平滑模型。
D. 正确。GBDT 使用的基学习器通常是 CART(Classification and Regression Tree)决策树。CART 树既可以用于回归任务,也可以用于分类任务,并且支持二叉树结构,适合 GBDT 的训练方式。
发表于 2025-04-12 16:53:06 回复(0)