《卷积网络》卷积神经网络基础

边缘检测例子

填充Padding

  • Valid Padding
    p = 0 , o u t p u t = 1 + n f s
  • Same Padding
    保持卷积输出和输入维度相同,
    1 + n f + 2 p s = n
    p = ( n 1 ) s n + f 2

卷积步长Stride

每次卷积核卷积操作后平移的维度。
n f + 2 p s + 1
当s=1,f=3,p=1或s=1,f=5,p=2时,卷积前后尺寸不变。

三维上的卷积


设输入维度 n n d e p t h ,卷积核个数为 n c (即为输出通道数量),则卷积核维度 d e p t h f f n c
共有 n c 个卷积核,每个卷积核对上一层 d e p t h 个feature map进行卷积操作。
则输出维度 ( n f + 1 ) ( n f + 1 ) n c
每个卷积核的参数量为 f f d e p t h + 1

池化层Pooling Layer

池化一般分为MaxPooling和AveragePooling。池化层没有需要学习的参数。
与卷积层不同的是,池化操作是分别对每个切片单独进行计算的。而三维卷积是对所有切片一起计算的。
通常使用Valid Padding,即padding size =0。
设输入维度 n n d e p t h ,池化层参数 f f
则输出维度 ( n f + 1 ) ( n f + 1 ) d e p t h

使用卷积的原因

  • 参数共享
    通常一个特征检测子(如边缘检测)在图像某一部位有用也在其他部位生效。
    同一个卷积核在图像的不同部位保持同一组参数。
  • 稀疏连接
    每一层的输出只依赖于前一层一小部分的输入。

CNN的反向传播

池化层的反向传播


CNN是全连接特殊形式,所以局部感受野之外的神经元为0,核参数在神经元之间共享。

参考资料

《深度学习》deeplearning.ai

全部评论

相关推荐

coffrar:全都是已读😅沟通一千五百多个了
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务