首页 > 试题广场 >

在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟

[单选题]
在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题()
  • 增加训练集量
  • 减少神经网络隐藏层节点数
  • 删除稀疏的特征
  • SVM算法中使用高斯核/RBF核代替线性核
c为什么不对呢。
发表于 2017-03-22 14:03:20 回复(1)
一般情况下,越复杂的系统,过拟合的可能性就越高,一般模型相对简单的话泛化能力会更好一点。SVM的核函数中,使用高斯核比使用线性核的复杂性更高,所以可能会造成过拟合
发表于 2017-03-19 17:36:01 回复(0)
答案:B
过拟合就是导致拟合过度,算法的普适性降低
B选项减少神经网络隐层节点数,也就减小了输入层与隐层,隐层与输出层之间的连接矩阵,使其适应性变差。
编辑于 2015-08-06 21:19:12 回复(2)
造成过拟合的原因主要有:
1、训练数据不足,有限的训练数据
2、训练模型过度导致模型非常复杂,泛化能力差
选项A增加训练集可以解决训练数据不足的问题,防止过拟合
选项B对应使得模型复杂度降低,防止过拟合
选项C类似主成分分析,降低数据的特征维度,使得模型复杂度降低,防止过拟合
选项D使得模型的复杂化,会充分训练数据导致过拟合
发表于 2018-06-19 17:14:38 回复(1)
一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向, svm高斯核函数比线性核函数模型更复杂,容易过拟合
发表于 2015-09-02 23:07:20 回复(0)
径向基(RBF)核函数/高斯核函数的说明
    这个核函数可以将原始空间映射到无穷维空间。对于参数 ,如果选的很大,高次特征上的权重实际上衰减得非常快,实际上(数值上近似一下)相当于一个低维的子空间;反过来,如果选得很小,则可以将任意的数据映射为线性可分——当然,这并不一定是好事,因为随之而来的可能是非常严重的过拟合问题。不过,总的来说,通过调整参数 ,高斯核实际上具有相当高的灵活性,也是 使用最广泛的核函数 之一。
发表于 2015-09-11 23:13:54 回复(0)
答案B不对吧。。
引起过拟合的应该是太多的参数引起的。神经网络减少隐藏层节点,就是在减少参数啊,只会将训练误差变高,怎么会过拟合呢。

问题是否是防止过拟合啊??
发表于 2015-08-13 09:40:52 回复(2)
避免过拟合的方法:正则化方法,强制减少参数,增大训练数据集。
减少神经网络隐藏层节点数,即减少了输入--隐层,隐层--输出 之间的连接矩阵,即权重和偏置,相当于降低模型复杂度,易引起过拟合。
发表于 2015-08-04 10:17:01 回复(4)
选B是错的。
过拟合的根本原因是模型学习能力与数据复杂度的不匹配,模型学习能力强,数据复杂度低,会引起过拟合。
减少神经网络隐层参数会降低网络的学习能力,模型趋近于简单,因此不会增加过拟合风险。
用Dropout解释的全部是错的,减少隐层参数跟Dropout没有半毛钱关系,完全是两回事。

应该选D,高斯核会增加模型复杂度。

选B的同学,神经网络部分还要补补课呀
发表于 2017-02-28 20:59:43 回复(0)
其实神经网络中著名的dropout就是通过删除部分隐藏层来实现降低过拟合情况的
发表于 2016-08-05 21:45:18 回复(0)
过拟合的原因是数据量太少和模型太复杂,泛化能力差
发表于 2023-06-08 15:40:44 回复(0)
删除稀疏特征,类似于剔除实验中采集到的误差较大的数据,这部分数据没必要去去拟合。关于D选项,模型复杂度提高了,拟合效果是增强了,但是也更容易过拟合
发表于 2020-08-31 09:23:16 回复(0)
越复杂越容易过拟合
发表于 2019-09-02 19:43:35 回复(0)
降低复杂度可以防止过拟合
发表于 2018-10-16 08:27:31 回复(0)
过拟合是网络过于复杂了,简单点就可以避免
发表于 2018-09-08 10:54:57 回复(0)
排除法。。。
发表于 2018-09-08 09:47:09 回复(0)
B 增加隐层数可以降低网络误差,提高精度,但也使网络复杂化  倾向于过拟合
D svm高斯核函数比线性核函数模型更复杂,容易过拟合
总结 模型越复杂越容易过拟合
发表于 2018-08-05 11:57:49 回复(0)
哪位可以帮忙解释一下C为什么会引起过拟合呢?
发表于 2018-03-11 11:21:18 回复(1)
模型越高级,越复杂,学习力越强,参数越多,越容易过拟合。那c呢
发表于 2017-03-13 00:09:51 回复(1)
避免过拟合的方法:正则化方法,强制减少参数,增大训练数据集。 减少神经网络隐藏层节点数,即减少了输入--隐层,隐层--输出 之间的连接矩阵,即权重和偏置,相当于降低模型复杂度,易引起过拟合。
发表于 2017-03-12 23:52:28 回复(0)