鸡排饭加两个蛋 level
获赞
538
粉丝
35
关注
2
看过 TA
10
东北大学
2018
C++
IP属地:未知
暂未填写个人简介
私信
关注
2018-09-19 11:13
已编辑
东北大学 C++
前言 楼主因为之前实习拿到商汤的offer,加了面试官微信。前几日面试官问我是否需要内推,就把我简历要了过去,然后商汤就给我打电话了,然后然后....就有了昨日被血虐的过程。 一面 针对项目提问,简历上所有的项目都问了个遍。其中我有用到ssd-mobilenetv1-coco的预训练模型,我自己finetune之后的map是0.956@IOU0.5,面试官问我map的误报率是多少...我一脸懵逼= =哎,菜是原罪。 问曰:熟悉目标检测吗? 答曰:看过经典论文,但实际的项目做得不多。 继续问:知道nms吧?把nms的代码写一下,并且分析一下时间复杂度。...
Queequeg:残差网络可以缓解梯度消失,在论文中解释的很清楚啊。可以用如下公式解释: xl+1 = xl + F(xl, Wl) xl+2 = xl+1 + F(xl+1, Wl+1) 依次类推,可以得到第L层的输入为: 设损失函数为则: 从上式可以看出,从第L层到它之前的任意l层有两条传播路径,第一条传播路径不经过任何中间层,这对梯度消失起到了缓解作用。另外,在一个mini-batch中,一般来说,对于所有的样本都是-1的可能性不大。这就意味着即使所有的weights都取很小的值,梯度也不会消失。 至于为什么既然relu的梯度只有0和1,为什么还会梯度消失,可以举一个简单的例子。 假如f(x) = 0.1x,g(x)是relu函数。 x1 = g(f(x0)) x2 = g(f(x1)) 那么: x2 = g(f(g(f(x0)))) 假设这个复合函数中relu全部都在正半轴区域,即梯度为1的区域。我们会得到: 神经网络中不只relu这一种变换,其他的变换同样可以影响梯度值。故relu只是相对于其他激活函数可以缓解梯度消失,并不能消除。
投递商汤科技等公司10个岗位 >
0 点赞 评论 收藏
分享
关注他的用户也关注了:
牛客网
牛客企业服务