DenseNet模型[通俗易懂]

DenseNet模型[通俗易懂]《DenselyConnectedConvolutionalNetworks》阅读笔记代码地址:https://github.com/liuzhuang13/DenseNet首先看一张图:稠密连接:每层以之前层的输出为输入,对于有L层的传统网络,一共有LL个连接,对于DenseNet,则有L(L+1)2\frac{L(L+1)}2。这篇论文主要参考了HighwayNetw

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

《Densely Connected Convolutional Networks》阅读笔记

代码地址:https://github.com/liuzhuang13/DenseNet

首先看一张图:
这里写图片描述
稠密连接:每层以之前层的输出为输入,对于有L层的传统网络,一共有 L 个连接,对于DenseNet,则有

L(L+1)2

这篇论文主要参考了Highway Networks,Residual Networks (ResNets)以及GoogLeNet,通过加深网络结构,提升分类结果。加深网络结构首先需要解决的是梯度消失问题,解决方案是:尽量缩短前层和后层之间的连接。比如上图中, H4 层可以直接用到原始输入信息 X0 ,同时还用到了之前层对 X0 处理后的信息,这样能够最大化信息的流动。反向传播过程中, X0 的梯度信息包含了损失函数直接对 X0 的导数,有利于梯度传播。
DenseNet有如下优点:
1.有效解决梯度消失问题
2.强化特征传播
3.支持特征重用
4.大幅度减少参数数量

接着说下论文中一直提到的Identity function:
很简单 就是输出等于输入 f(x)=x
这里写图片描述

传统的前馈网络结构可以看成处理网络状态(特征图?)的算法,状态从层之间传递,每个层从之前层读入状态,然后写入之后层,可能会改变状态,也会保持传递不变的信息。ResNet是通过Identity transformations来明确传递这种不变信息。

网络结构:
这里写图片描述
每层实现了一组非线性变换 Hl(.) ,可以是Batch Normalization (BN) ,rectified linear units (ReLU) , Pooling , or Convolution (Conv). 第 l 层的输出为

xl

对于ResNet:

xl=Hl(xl1)+xl1



这样做的好处是the gradient flows directly through the identity function from later layers to the earlier layers.

同时呢,由于identity function 和 H的输出通过相加的方式结合,会妨碍信息在整个网络的传播。

受GooLeNet的启发,DenseNet通过串联的方式结合:

xl=Hl([x0,x1,...,xl1])

这里 Hl(.) 是一个Composite function,是三个操作的组合: BN>ReLU>Conv(3×3)

由于串联操作要求特征图 x0,x1,...,xl1 大小一致,而Pooling操作会改变特征图的大小,又不可或缺,于是就有了上图中的分块想法,其实这个想法类似于VGG模型中的“卷积栈”的做法。论文中称每个块为DenseBlock。每个DenseBlock的之间层称为transition layers,由 BN>Conv(1×1)>averagePooling(2×2) 组成。

Growth rate:由于每个层的输入是所有之前层输出的连接,因此每个层的输出不需要像传统网络一样多。这里 Hl(.) 的输出的特征图的数量都为 k

k
即为Growth Rate,用来控制网络的“宽度”(特征图的通道数).比如说第 l 层有

k(l1)+k0
的输入特征图, k0 是输入图片的通道数。

虽然说每个层只产生 k 个输出,但是后面层的输入依然会很多,因此引入了Bottleneck layers 。本质上是引入1×1的卷积层来减少输入的数量,

Hl
的具体表示如下

BN>ReLU>Conv(1×1)>BN>ReLU>Conv(3×3)



文中将带有Bottleneck layers的网络结构称为DenseNet-B。

除了在DenseBlock内部减少特征图的数量,还可以在transition layers中来进一步Compression。如果一个DenseNet有m个特征图的输出,则transition layer产生 θm 个输出,其中 0<θ1 。对于含有该操作的网络结构称为DenseNet-C。

同时包含Bottleneck layer和Compression的网络结构为DenseNet-BC。
具体的网络结构:

这里写图片描述

实验以及一些结论
在CIFAR和SVHN上的分类结果(错误率):
这里写图片描述
L 表示网络深度,

k
为增长率。蓝色字体表示最优结果,+表示对原数据库进行data augmentation。可以发现DenseNet相比ResNet可以取得更低的错误率,并且使用了更少的参数。
接着看一组对比图:
这里写图片描述
前两组描述分类错误率与参数量的对比,从第二幅可以看出,在取得相同分类精度的情况下,DenseNet-BC比ResNet少了 23 的参数。第三幅图描述含有10M参数的1001层的ResNet与只有0.8M的100层的DenseNet的训练曲线图。可以发现ResNet可以收敛到更小的loss值,但是最终的test error与DenseNet相差无几。再次说明了DenseNet参数效率(Parameter Efficiency)很高!

同样的在ImageNet上的分类结果:
这里写图片描述
右图使用FLOPS来说明计算量。通过比较ResNet-50,DenseNet-201,ResNet-101,说明计算量方面,DenseNet结果更好。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/187946.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 决策树原理及Python代码实现

    决策树原理及Python代码实现决策树其实就是按节点分类数据集的一种方法。在本文中,我将讨论数学上如何使用信息论划分数据集,并编写代码构建决策树。创建决策树进行分类的流程如下:(1)创建数据集(2)计算数据集的信息熵(3)遍历所有特征,选择信息熵最小的特征,即为最好的分类特征(4)根据上一步得到的分类特征分割数据集,并将该特征从列表中移除(5)执行递归函数,返回第三

    2025年10月7日
    2
  • Mac系统Unity3D中的快捷键

    Mac系统Unity3D中的快捷键command+N新建场景command+O打开场景command+S保存场景Shift+command+S场景另存为Shift+command+B编译设置command+B编译并运行command+zUndo撤销shift+command+zRedo撤销command+XCut剪切command

    2022年5月22日
    60
  • 听说B站视频的完成率也是一项挺重要的指标,下面来提高它

    听说B站视频的完成率也是一项挺重要的指标,下面来提高它

    2021年11月11日
    128
  • 标准正态分布的分布函数服从均匀分布_python 正态分布

    标准正态分布的分布函数服从均匀分布_python 正态分布三种由(0,1)均匀分布构造标准正态分布随机变量的方法:Box–Muller算法,中心极限定理和KindermanandMonahanmethod。

    2025年7月21日
    4
  • uint16,uint32是什么?

    uint16,uint32是什么?记得之前在刷笔试题的时候就看见过这个问题 发现当时上网百度后又忘了 最近在看 CryEngine3 引擎代码的时候又晕了 趁现在赶紧记下来 在查看 CE3 的代码时我发现了这个变量 TFlowNodeIdm flowNodeId 心想这是什么鬼 请理解一个菜鸟没啥经验 然后果断在 VS 下按 F12 查看定义 连着按了几次我终于捋清其中的奥妙 所以我干脆把 uint8 uint32

    2025年11月19日
    3
  • Autoconf编译配置

    Autoconf编译配置1、大型项目编译过程./configuremakemakeinstallLinux中的configure/make/makeinstall到底在做些什么1)./configure:configure是一个脚本,一般由Autoconf工具生成,它会检验当前的系统环境,看是否满足安装软件所必需的条件:比如当前系统是否支持待安装软件,是否已经安装软件依赖等。configure脚本最后会生成一个Makefile文件。2)makemake是一个命令,它使用第1步得到的Makefile文件,如果

    2022年5月30日
    36

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号