首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
以下关于正则化的描述正确的是()
[不定项选择题]
以下关于正则化的描述正确的是()
正则化可以防止过拟合
L1正则化能得到稀疏解
L2正则化约束了解空间
Dropout也是一种正则化方法
查看正确选项
添加笔记
求解答(8)
邀请回答
收藏(534)
分享
6个回答
添加回答
28
门扣
L2本质是参数解的2阶范数,以二维为例,L2的最优解就是一个圆;如果你还记得话,loss func的组成是两部分一部分是预测值和真实值之间的error,一部分是正则项,前一部分的解空间可以看作是一个梯度下降的等高线,这样一来,loss func的所有局部解就是每层等高线和这个圆之间的切点,所以说约束了解空间。这也是为啥L2会让解平滑,L1会让解稀疏(因为L1的解是一个四个顶点在坐标轴上的正方形,等高线与它的交点多半落在坐标轴上,意味着某一维会变成零)
————————————————
版权声明:本文为CSDN博主「张哲瑞」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:
https://blog.csdn.net/weixin_41791402/java/article/details/102765445
编辑于 2020-04-08 00:06:46
回复(0)
1
空空就是悟空
都对
发表于 2019-09-23 16:43:10
回复(0)
0
牛客711559590号
dropout居然是正则化技术
发表于 2025-02-16 10:24:30
回复(0)
0
赐我一个offer吧😭
Dropout是一种正则化技术,用于防止神经网络在训练过程中出现过拟合现象。通过随机丢弃神经网络中的一部分神经元,Dropout强制模型依赖于不同的神经元组合来进行预测,从而增加了模型的泛化能力。这种方法可以减少模型对特定特征的依赖,使得模型在面对新的、未见过的数据时表现更好。Dropout的实现方式是在前向传播过程中,以一定的概率p随机选择一些神经元停止工作,即这些神经元的输出被设置为0。这种随机丢弃的过程在每次前向传播时都会进行,从而迫使模型学习到更加鲁棒的特征表示。
发表于 2024-08-07 14:38:38
回复(0)
0
牛客_JJ
dropout也是一种正则化。。。
发表于 2024-05-15 10:30:08
回复(0)
0
GoodFellow201904261341544
为什么说L2正则化约束了解空间
发表于 2019-09-06 09:56:41
回复(3)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
小米集团
算法工程师
机器学习
2019
来自:
小米2019秋招算法笔...
上传者:
小小
难度:
6条回答
534收藏
5895浏览
热门推荐
相关试题
(verbal)最近的研究显示,许...
言语理解与表达
2019
普华永道
人力资源
审计
税务服务
风险管理
管理咨询
行政管理
评论
(2)
来自
职能类模拟题14
对于logistic regess...
百度
数理统计
机器学习
评论
(2)
请写出贝叶斯公式,请描述朴素贝叶斯...
百度
数理统计
机器学习
评论
(3)
以下哪种排序算法平均时间复杂度最低()
排序
评论
(4)
来自
小米2019秋招算法笔试...
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题