1 网络结构:
以224*224输入图片为例:

感觉VGGNet就是加深版的AlexNet,都是卷积与池化的叠加,最后再加两层全连接,然后softmax输出。VGGNet有5段卷积,每段卷积由2~3个卷积层后加一个最大池化组成。卷积核的数量也随着层数的增加而增多。VGGNet也沿用了AlexNet数据增强的方法(Multi-Scale)防止模型过拟合。
相较与AleNet,VGGNet最大的改进或者说区别就是用小size的Filter代替大size的Filter。比如,在VGGNet中,下面这种结构很常见,就是会用两个3*3的卷积核代替一个5*5的卷积核,

为什么这样呢?这样训练的好处有:
①需要训练的参数减少。如果卷积层C2的卷积核数量是N,上一层C1卷积核数量是M,则用一个5*5 size的卷积核实现该层卷积的参数数量是:5*5*N*M=25N*M;如果用两个3*3 size大小的卷积核代替一个5*5 size大小的卷积核,此时的参数数量是:(3*3*2)*N*M=18N*M。
②增加非线性变换的次数,增加了CNN对特征的学习能力。一个5*5的卷积核,经过一次卷积,则只进行一次非线性变换,而两个3*3的卷积核,则经过两次非线性变换。
转自:https://blog.csdn.net/jiafeier_555/article/details/
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/176389.html原文链接:https://javaforall.net
