Eutenacity level
获赞
4
粉丝
0
关注
5
看过 TA
5
北京理工大学
2022
C++
IP属地:未知
暂未填写个人简介
私信
关注
2021-07-28 17:45
已编辑
北京理工大学 C++
末流985渣硕,非科班,一篇可有可无的水刊论文,没有ccf论文,比赛2个三等奖,1个二等奖,都是小比赛。 1面: 简历深挖,论文深挖(有个没发表的工作,个人感觉还不错,主要介绍了这个工作,反响不错) 检测里面,样本类别不平衡如何处理 iou loss介绍 hrnet介绍 fpn相似的特征融合介绍 算法题很简单,可能前面说的比较好,所以就出的题简单,不记得原题了,不贴了easy难度 反问 2面: 简历深挖,毕设深挖 fpn相似的特征融合介绍 小目标检测如何处理 简介faster rcnn 如何做剪枝 ...
牛客183146708号:在学习率默认1e-3的情况下,batchsize取100更好,10000太大了。正常来说batchsize肯定是越大收敛速度越快,大的batchsize需要的batch数目少,1个小时就可以训练完imageNet。而且大的batchsize梯度更稳定,loss曲线更平滑。但是如果batchsize过大,会导致效果变差(大的batchsize收敛到sharp minimum, 小的batchsize收敛到flat minimum,后者泛化能力更好)。论文中目前研究batchsize超过8000之后,效果就不好了。当然如果能够增大学习率,可能10000是最优的(因为样本量也挺大的)。我觉得面试官这个题目应该多给些条件,比如学习率固定为多少?
投递百度等公司10个岗位 >
0 点赞 评论 收藏
分享
关注他的用户也关注了:
牛客网
牛客企业服务