首页 > 试题广场 >

以下关于正则化的描述正确的是()

[不定项选择题]
以下关于正则化的描述正确的是()
  • 正则化可以防止过拟合
  • L1正则化能得到稀疏解
  • L2正则化约束了解空间
  • Dropout也是一种正则化方法
 L2本质是参数解的2阶范数,以二维为例,L2的最优解就是一个圆;如果你还记得话,loss func的组成是两部分一部分是预测值和真实值之间的error,一部分是正则项,前一部分的解空间可以看作是一个梯度下降的等高线,这样一来,loss func的所有局部解就是每层等高线和这个圆之间的切点,所以说约束了解空间。这也是为啥L2会让解平滑,L1会让解稀疏(因为L1的解是一个四个顶点在坐标轴上的正方形,等高线与它的交点多半落在坐标轴上,意味着某一维会变成零)
————————————————
版权声明:本文为CSDN博主「张哲瑞」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_41791402/java/article/details/102765445
编辑于 2020-04-08 00:06:46 回复(0)
都对
发表于 2019-09-23 16:43:10 回复(0)
dropout居然是正则化技术
发表于 2025-02-16 10:24:30 回复(0)
Dropout是一种正则化技术,用于防止神经网络在训练过程中出现过拟合现象。通过随机丢弃神经网络中的一部分神经元,Dropout强制模型依赖于不同的神经元组合来进行预测,从而增加了模型的泛化能力。这种方法可以减少模型对特定特征的依赖,使得模型在面对新的、未见过的数据时表现更好。Dropout的实现方式是在前向传播过程中,以一定的概率p随机选择一些神经元停止工作,即这些神经元的输出被设置为0。这种随机丢弃的过程在每次前向传播时都会进行,从而迫使模型学习到更加鲁棒的特征表示。‌
发表于 2024-08-07 14:38:38 回复(0)
dropout也是一种正则化。。。
发表于 2024-05-15 10:30:08 回复(0)
为什么说L2正则化约束了解空间
发表于 2019-09-06 09:56:41 回复(3)