我要offer求你了 level
获赞
117
粉丝
17
关注
1
看过 TA
34
中华女子学院
2021
PHP
IP属地:福建
暂未填写个人简介
私信
关注
2020-08-23 10:02
已编辑
中华女子学院 PHP
MSE和交叉熵为什么选择交叉熵作为分类的损失函数? 面试中遇到好多次了,来个大佬让我背一遍答案,谢谢!!!
几时润:MSE + sigmoid、交叉熵 + sigmoid配套。后者计算少1个sigmoid的导数项,梯度等于预测值和真实值差值乘以x,计算更方便,而且差值越大代表梯度越大,更新越快,符合物理意义;前者sigmoid导数取值范围为[0,1],计算复杂,而且可能出现梯度消失
0 点赞 评论 收藏
分享
2020-05-03 12:04
已编辑
中华女子学院 PHP
大佬们求解答,面试之前被问到了,我回答的是激活函数前,但是好像听说可以放在激活函数之后,不懂啊,两者有什么区别,有大佬解答下吗?谢谢
成都孙笑川:一般是卷积-BN-Relu. Sigmoid:如果先BN再Sigmoid,由于BN后方差接近于1,均值接近于0,使得BN后的数据接近于Sigmoid的线性区域,降低了激活函数的非线性能力,这种情况下建议Sigmoid+BN。 Relu:如果先Relu再BN,Relu后部分神经元已经失活,失活的神经元将对BN的归一化产生影响,这种情况下建议BN+Relu。 来自知乎,遇到问题上网先搜。
0 点赞 评论 收藏
分享
2020-05-02 18:07
已编辑
中华女子学院 PHP
看面经有看到过这类题目,上网搜索答案好像也没找到,我太菜了,有没有大佬解释一下的,谢谢大佬们!
成都孙笑川:boosting的树深度小,bagging的树深度大。因为boosting是低偏差的,所以树不必太深,且为了把boosting的方差也降低,树也要深度小。bagging是低方差的,为了降低偏差,把树的深度变大,这样能降低偏差。
0 点赞 评论 收藏
分享
关注他的用户也关注了:
牛客网
牛客企业服务