0 点赞 评论 收藏
分享
几时润:MSE + sigmoid、交叉熵 + sigmoid配套。后者计算少1个sigmoid的导数项,梯度等于预测值和真实值差值乘以x,计算更方便,而且差值越大代表梯度越大,更新越快,符合物理意义;前者sigmoid导数取值范围为[0,1],计算复杂,而且可能出现梯度消失
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
成都孙笑川:一般是卷积-BN-Relu.
Sigmoid:如果先BN再Sigmoid,由于BN后方差接近于1,均值接近于0,使得BN后的数据接近于Sigmoid的线性区域,降低了激活函数的非线性能力,这种情况下建议Sigmoid+BN。
Relu:如果先Relu再BN,Relu后部分神经元已经失活,失活的神经元将对BN的归一化产生影响,这种情况下建议BN+Relu。
来自知乎,遇到问题上网先搜。
0 点赞 评论 收藏
分享
成都孙笑川:boosting的树深度小,bagging的树深度大。因为boosting是低偏差的,所以树不必太深,且为了把boosting的方差也降低,树也要深度小。bagging是低方差的,为了降低偏差,把树的深度变大,这样能降低偏差。
0 点赞 评论 收藏
分享
2020-04-12 11:13
中华女子学院 PHP 向宇同桌:今日面试结束就是正常的今天安排结束,如果有hr面还要额外安排。不要怕,结束不是凉。
投递百度等公司10个岗位 >
0 点赞 评论 收藏
分享
2019-12-03 22:20
中华女子学院 PHP 天辰、:分两种情况:如果主管招人的目的是做业务,那不在乎论文,能干活就行,就算有论文也要看跟组内业务是否相关,而且最终是要落地的。如果是想让你做研究,那需要顶会,而且一般是博士,但这种情况比较少,一般都是搞业务。总体来说论文是加分项而不是必须项,基础好与项目背景相关更受欢迎~
0 点赞 评论 收藏
分享
关注他的用户也关注了: