《卷积网络》深度卷积网络实例

经典网络

LeNet-5


共有约60k个参数,
特点

  1. 在论文中,激活函数使用的是sigmoid和tanh,那个时候还未使用ReLU.
  2. 当时出于节约计算力的考虑,不同的卷积核计算了不同的channel。(这里等之后看了论文补充)
  3. 池化层后添加了非线性激活函数(sigmoid),而现在很少这样使用。

    LeCun et al.,1998. Gradient-based learning applied to document recognition


论文Section2讨论了网络的架构,Section3讨论了实验结果。

AlexNet

特点

  1. 与LeNet类似,但是更大,约60m参数量。
  2. 使用了ReLU
  3. 多GPU训练
  4. Local Response Normalization(LRN) channel-wise normalization。现在并不常用

Krizhevsky et al.,2012 ImageNet Classification with Deep Convolutional Neural Networks

VGG-16



特点

ResNet


  • Residual block


    使用残差块可以训练更深的网络。ResNet中使用的残差块有下面两种。
  • The identity block
  • The convolutional block

    当残差模块的输入和输出的形状不匹配时,使用卷积模块修改shortcut中输入的形状,使得shortcut(x)和输出形状匹配。
    shortcut上的卷积层不适用任何非线性激活函数。其主要任务是对输入施加一个学习到的线性函数来改变输入的维度。
  • 工作原理
    identity function is easy for residual block to learn.
    不会由于网络的加深使得效果变差。

He et al., 2015. Deep residual networks for image recognition

Network in Network(1x1卷积)

可以用来缩减channel数量

Lin et al., 2013. Network in network

Inception

特点


  • Inception block


  • 同时使用多种卷积核和池化,不必选择。卷积和池化均使用same填充。

Szegedy et al.,2014,Going Deeper with Convolutions

CNN使用建议

  • 使用开源实现
  • 迁移学习
  • 数据扩增
    使用CPU进行图片生成,GPU训练
  • CV现状

参考资料

《深度学习》 deeplearning.ai
Introduction to Deeplearning HEC

全部评论

相关推荐

不愿透露姓名的神秘牛友
10-05 10:13
已编辑
HHHHaos:让这些老登来现在秋招一下,简历都过不去
点赞 评论 收藏
分享
评论
点赞
1
分享
牛客网
牛客企业服务