【图像超分辨】RDN

【图像超分辨】RDNRDN网络结构实现细节讨论(与其他网络的区别)实验设置实验结果参考博客RDN——ResidualDenseNetwork——残差深度网络。RDN是基于深度学习的超分方法之一,发表于CVPR2018。网络结构RDN网络结构分为4个部分:SFENet(ShallowFeatureExtractionNet,浅层特征提取网络);RDBs(ResidualDenseBl…

大家好,又见面了,我是你们的朋友全栈君。

RDN——Residual Dense Network—— 残差深度网络。RDN是基于深度学习的超分方法之一,发表于CVPR 2018。

网络结构

在这里插入图片描述
RDN网络结构分为4个部分:

  1. SFENet(Shallow Feature Extraction Net, 浅层特征提取网络);
  2. RDBs( Residual Dense Blocks, 残差稠密块);
  3. DFF(Dense Feature Fusion, 稠密特征块 );
  4. Up-Sampling Net(上采样网络)。

SFENet:
包含两个CONV层,用于提取浅层特征。

RDBs:
包含D个RDB,用于提取各层特征,一个RDB提取出一个局部特征。RDB结构如下图(c)所示:
在这里插入图片描述
可以看出,RDB = Residual block(残缺块) + Dense block(稠密块)
由于网络深度的增加,每层CONV层的特征会逐渐分级(得到hierarchical features),因为有不同的感受野(receptive fileds)。而Hierarchical features对图像重建提供了重要信息, 我们要充分利用所有层的信息和特征。

一个RDB结构分为3个部分:

  1. CM(Contiguous Memory 近邻记忆)
    RDB含有C个[CONV+ReLU],CM机制会将上一个RDB的状态发送到当前RDB中的每一个CONV层,也就是图(c)的小桥们;

  2. LFF(Local Feature Fusion 局部特征融合)
    LLF将前一个RDB的各个状态与当前RDB的所有CONV层融合在一起。
    RDN中,前一个RDB输出的feature-map 是直接与当前RDB串联起来的,这时,减少feature的数量就很有必要了。我们使用一个11的CONV来减少feature的数量/控制输出信息:11CONV用于减少通道数,并保持nh,nw不变;

  3. LRL(Local Residual Learning 局部残差学习)
    也就是将以下两者加起来,看c图下部的红箭头以及绿色加号:前一RDB的输出 + 上面LFF的1*1CONV的输出。引入LRL以进一步提高信息流、提高网络表示能力,以达到更好的性能。

DFF(Dense Feature Fusion, 稠密特征块 ):
DFF在全局上提取各层特征。包含两个部分:

  1. GFF(global feature fusion 全局特征融合)
    GFF 用于将所有RDB提取到的特征融合在一起,得到全局特征。GFF分为两部分:1×1 CONV 融合一系列的特征(1*1CONV的作用就是减少通道数,并保持Nh, Nw)。3×3 CONV 为下一步的GRL进一步提取特征;
  2. GRL(global residual learning 全局残差学习)
    就是RDN结构图中的绿色加号。就是实现:浅层特征 + 所有RDB提取到的特征;
  3. UPNet(Up-Sampling Net 上采样网络)
    该模块表示网络最后的上采样+卷积操作。实现了输入图片的放大操作。

实现细节

  1. 除了用于融合局部或全局特征的CONV层的kernel size = 1×1 外,其他的CONV层都是 3×3的;
  2. kernel size = 3×3的CONV层,都用SAME padding 以保持inputsize不变
    浅层特征提取层、局部全局特征融合层的CONV的filter数量都是G0 = 64;
  3. 其他层(RDB中)的CONV的filter数量都是G,并使用ReLU作为其激活函数;
  4. 使用ESPCNN(Sub-Pixel)来提高粗分辨率特征,从而使得UPNet性能更好;
  5. RDN最后的CONV,若需要输出彩色高清图像,则可设置其输出的channel = 3;若需要输出灰度高清图像,可设置其输出的channel = 1。

讨论(与其他网络的区别)

Difference to DenseNet:

  1. 与DenseNet不同:移除了BN层,以提高运算速度降低计算复杂度和GPU内存的消耗;
  2. 与DenseNet不同:移除了Pooling层,防止其将像素级的信息给去除掉;
  3. 与DenseNet不同:使用GFF将各RDB提取的特征全部concat起来,充分利用。而DenseNet 整个网络中只使用每一个DenseBlock最后的输出。

Difference to SRDenseNet:

  1. 在RDB中,提取全局特征时不使用Dense Connection,取而代之的是
  2. DFF(Dense Feature Fusion, 稠密特征块,包含GFF和GRL)
    损失函数:SRDenseNet使用L2 ;RDN使用L1(提高了性能,加快了收敛)。

Difference to MemNet:

  1. 损失函数:MemNet使用L2 ;RDN使用L1(提高了性能,加快了收敛);
  2. MemNet要用Bicubic插值方式对LR图片进行上采样,从而使LR图片达到所需的大小,这就导致特征提取和重建过程都在HR空间(高分辨率空间)中进行;而RDN从原始的LR图片(低分辨率图片)提取各层特征,很大程度上减少了计算的复杂度,并提高了性能;
  3. MemNet中包含了递归和门限单元,这使得当前层不能接收上一层的输入,而RDB的前后模块是有交互的

实验设置

数据集:

  1. 数据集: DIV2K(800 training imgs + 100 vali imgs + 100 testing imgs);
  2. 训练:DIV2K——800 training img + 5 vali img;
  3. 测试:五个standard benchmark datasets:Set5 [1], Set14 [33], B100 [18], Urban100 [8], and Manga109 [19]。

退化模型:
训练的输入图片(LR)使用DIV2K的高清图片通过下面3种退化模型得到:

  1. BI模型:Bicubic插值方式对高清图片进行下采样, 缩小比例为x2,x3,x4;
  2. BD模型:先对高清图片做(7*7卷积,1.6方差)高斯滤波,再对滤波后图片做下采样, 缩小比例为x3;
  3. DN模型:①Bicubic插值方式对高清图片进行下采样, 缩小比例为x3,②再加30%的高斯噪声。

实验结果

在这里插入图片描述
可看出, CM, LRL, and GFF 缺一不可,缺一个性能就下降。

  1. 在BI退化模型下:
    在这里插入图片描述
    在这里插入图片描述
  2. 在BD和DN退化模型下:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

参考博客

超分辨率-RDN

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/150437.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • c# 调用Microsoft XPS Document Writer打印机,将Pdf文件转换成Xps文件「建议收藏」

    c# 调用Microsoft XPS Document Writer打印机,将Pdf文件转换成Xps文件「建议收藏」最近碰到个项目,其中有个需要将pdf文件转换成xps文件的功能,xps文件还算是新东西,所以基本没啥了解,通过一段时间的调查,本人算是找到了2个方法:  1)通过PDFNet第三发开发组件即可很容易的完成转换功能,并且还有其他针对pdf文件操作的功能,还是很强大的。当然啦,这个东     西是要买的,可以先下一个试用版先体验体验。    下载地址:http://w

    2022年5月4日
    310
  • mysql服务性能优化—my.cnf配置说明详解

    mysql服务性能优化—my.cnf配置说明详解

    2021年6月5日
    87
  • MAC双系统如何切换_mac双系统怎么进入mac系统

    MAC双系统如何切换_mac双系统怎么进入mac系统Mac上面安装双系统是一个很常见的系统选择方案。双系统之间的切换对于使用Mac的用户都不会陌生,但是对于许多初次接触Mac系统的用户而言,也有很多并不知道如何切换双系统,以及如何设置默认进入的系统。虽然只是一个很小的技巧,但是对于新接触Mac系统的用户如果不了解这个的话,那么使用中会有一定的麻烦。双系统的切换以及设置系统默认启动也有几种方法。-w+I4g$u#H#T1K一、开机按Op…

    2022年10月6日
    0
  • HibernateTemplate的常用方法「建议收藏」

    HibernateTemplate的常用方法「建议收藏」HibernateTemplate提供非常多的常用方法来完成基本的操作,比如通常的增加、删除、修改、查询等操作,Spring2.0更增加对命名SQL查询的支持,也增加对分页的支持。大部分情况下,使用Hibernate的常规用法,就可完成大多数DAO对象的CRUD操作。 下面是HibernateTemplate的常用方法简介:     voiddelete(Objecte…

    2022年6月22日
    32
  • 高通平台8953 Linux DTS(Device Tree Source)设备树详解之三(高通MSM8953 android7.1实例分析篇)[通俗易懂]

    高通平台8953 Linux DTS(Device Tree Source)设备树详解之三(高通MSM8953 android7.1实例分析篇)[通俗易懂]高通平台8953 LinuxDTS(DeviceTreeSource)设备树详解之三(高通MSM8953android7.1实例分析篇)本系列导航:高通平台8953 LinuxDTS(DeviceTreeSource)设备树详解之一(背景基础知识篇)高通平台8953 LinuxDTS(DeviceTreeSource)设备树详解之二(DTS设备树匹配过程)高通平台8953 L…

    2022年10月18日
    0
  • fastText原理和文本分类实战,看这一篇就够了[通俗易懂]

    fastText原理和文本分类实战,看这一篇就够了[通俗易懂]fastText原理篇一、fastText简介fastText是一个快速文本分类算法,与基于神经网络的分类算法相比有两大优点:1、fastText在保持高精度的情况下加快了训练速度和测试速度2、fastText不需要预训练好的词向量,fastText会自己训练词向量3、fastText两个重要的优化:HierarchicalSoftmax、N-gram二、fastText模型架构…

    2022年6月11日
    126

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号