首页 > 试题广场 >

关于机器学习算法正确的是()

[单选题]
关于机器学习算法正确的是()
  • LR模型在加入正则化项后Variance将增大
  • 线性SVM是寻找最小边缘的超平面的一个分类器
  • xgboost和GDBT都是属于boosting算法
  • xgboost和随机森林都是属于bagging算法
个人感觉只有C是对的,A项加入正则化项方差应该减小,B项是间隔最大,D项只有随机森林属于bagging。
发表于 2019-08-26 09:40:12 回复(0)
哪位能解释一下A选项吗?为什么LR加入正则化Variance会增大,正则化之后参数更平滑了,不是变小吗
发表于 2019-03-14 20:57:50 回复(8)
C 理由:A 逻辑回归增加正则项会降低模型复杂度,而方差随着模型复杂度提升而增加,故错误;B SVM 支持向量机是寻找最大边缘的超平面(最大边缘离样本距离越远 抗噪声性能越好 越稳定)故错误;C项 集成学习分为bagging 与boosting bagging 是投票表决法 常见的为随机森林法(对叶子节点的结论进行投票) boosting 是针对性的对前一次分类中的错误数据进行训练 常见的为adaboost XGboost
GDBT ,故C正确D错误。
发表于 2022-10-06 18:07:59 回复(0)
A选项:LR加入正则化后过拟合能力下降(泛化能力增大),即模型的方差增大。
发表于 2020-04-07 09:06:17 回复(2)
variance是体现一个模型的稳定性,越大越不稳定。按答案的意思,加了正则化,泛化能力变强,方差应该变小
发表于 2020-02-25 18:27:22 回复(0)
顺丰的出题人水平可真高啊
发表于 2019-07-31 23:39:24 回复(0)
这句话不完全准确。加入正则化项(通常是 \(L1\) 正则化或 \(L2\) 正则化)的目的之一是为了减小模型的方差(Variance)。正则化通过对模型参数进行惩罚,防止模型在训练集上过度拟合,从而提高了模型的泛化能力,减小了方差。

在逻辑回归(LR)等线性模型中,加入正则化项后,模型的参数受到了额外的限制,使得参数的值不能过大。这有助于防止模型对训练数据中的噪声过于敏感,从而减小了方差,提高了模型在未见过数据上的性能。

正则化的影响是通过在优化过程中引入正则项,使得模型在最小化损失函数的同时,还需要考虑对参数的惩罚。这导致模型在选择参数时更倾向于简单的解决方案,从而减小了方差。

因此,一般来说,加入正则化项后,模型的方差应该减小而不是增大。然而,这并不是绝对的,具体效果还受到许多因素的影响,包括正则化项的强度、数据的特性等。在一些情况下,正则化可能对模型的性能产生负面影响。在实践中,通常需要通过交叉验证等方法来调整正则化参数,以找到最适合数据的模型。
发表于 2023-11-11 16:11:20 回复(0)
没明白 bagging boosting的区别
发表于 2021-05-03 08:35:01 回复(0)
C真对吗,Bagging指通过随机抽样生成多个训练集并并行训练集成多个模型,以减少模型的方差
Boosting依赖于集成多个模型,一步步迭代
随机森林是Bagging,XGBoost是boosting啊
发表于 2025-03-07 22:25:57 回复(0)
关于A,加入正则化后,泛化能力增强,鲁棒性增强稳定性好,方差减小
发表于 2020-09-03 10:06:22 回复(0)
其实我个人觉得,XGB中也有随机选择特征和随机选择样本的过程,这算不算是Bagging思想呢?那么算不算是Bagging算法呢。
发表于 2019-09-06 04:02:31 回复(0)