《卷积网络》卷积神经网络基础

边缘检测例子

填充Padding

  • Valid Padding
    p = 0 , o u t p u t = 1 + n f s
  • Same Padding
    保持卷积输出和输入维度相同,
    1 + n f + 2 p s = n
    p = ( n 1 ) s n + f 2

卷积步长Stride

每次卷积核卷积操作后平移的维度。
n f + 2 p s + 1
当s=1,f=3,p=1或s=1,f=5,p=2时,卷积前后尺寸不变。

三维上的卷积


设输入维度 n n d e p t h ,卷积核个数为 n c (即为输出通道数量),则卷积核维度 d e p t h f f n c
共有 n c 个卷积核,每个卷积核对上一层 d e p t h 个feature map进行卷积操作。
则输出维度 ( n f + 1 ) ( n f + 1 ) n c
每个卷积核的参数量为 f f d e p t h + 1

池化层Pooling Layer

池化一般分为MaxPooling和AveragePooling。池化层没有需要学习的参数。
与卷积层不同的是,池化操作是分别对每个切片单独进行计算的。而三维卷积是对所有切片一起计算的。
通常使用Valid Padding,即padding size =0。
设输入维度 n n d e p t h ,池化层参数 f f
则输出维度 ( n f + 1 ) ( n f + 1 ) d e p t h

使用卷积的原因

  • 参数共享
    通常一个特征检测子(如边缘检测)在图像某一部位有用也在其他部位生效。
    同一个卷积核在图像的不同部位保持同一组参数。
  • 稀疏连接
    每一层的输出只依赖于前一层一小部分的输入。

CNN的反向传播

池化层的反向传播


CNN是全连接特殊形式,所以局部感受野之外的神经元为0,核参数在神经元之间共享。

参考资料

《深度学习》deeplearning.ai

全部评论

相关推荐

03-12 21:00
中山大学 Ruby
点赞 评论 收藏
分享
点赞 评论 收藏
分享
如题,鼠鼠快碎掉了。鼠鼠正在投暑期和日常的实习,可能是因为简历太差吧,好多初筛都没有过,所以其实格外珍惜每一次的约面。尤其鼠鼠是八股选手,但凡碰到喜欢问项目的面试官是直接速通鼠掉。那是一个万里无云的晚上,鼠鼠接到tx某子公司的约面,虽然没算法题但是问得我汗流浃背,面试官从我的八股批判到我的项目继而批判到我的实习,感觉基本上除了八股这种特定答案之外每一个问题都要质问我,尤其是询问到实习的时候我解释完之后直接来了一句“那你实习也啥也没做啊”,鼠鼠直接原地碎掉。之后的问题鼠鼠也不太记得了,大部分都是直接吟诵咒语,肌肉记忆直接不过脑子。因为接二连三的压力鼠鼠直接摆烂了,回答的时候也不太看屏幕直接开始搓...
机器人为什么是猫呀:楼主要自信。好的面试官是会照顾面试者情绪的,不会直接说那么伤人的话。面试表现其实很看自己的心态跟情绪,这些又和面试官的反馈很相关。而且有些面试官很高傲,不求甚解,自认为你的东西看一眼很简单,就不会听你说了,却没有从一个没有丰富工作经验的人的角度去思考。楼主不要因为这些影响心态,不要怀疑自己,只要遇到一个“合适”的面试官就会好很多的。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务