pytorch实现ShuffleNet「建议收藏」

pytorch实现ShuffleNet「建议收藏」ShuffleNet是由2017年07月发布的轻量级网络,设计用于移动端设备,在MobileNet之后的网络架构。主要的创新点在于使用了分组卷积(groupconvolution)和通道打乱(channelshuffle)。分组卷积和通道打乱分组卷积分组卷积最早由AlexNet中使用。由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部放在同一个GPU处理,因此作者把特征图分给多…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

ShuffleNet是由2017年07月发布的轻量级网络,设计用于移动端设备,在MobileNet之后的网络架构。主要的创新点在于使用了分组卷积(group convolution)通道打乱(channel shuffle)

分组卷积和通道打乱

分组卷积
分组卷积最早由AlexNet中使用。由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部放在同一个GPU处理,因此作者把特征图分给多个GPU分别进行处理,最后把特征图结果进行连接(concatenate)。在这里插入图片描述
对于输入特征图 H ⋅ W ⋅ c 1 H\cdot W \cdot c_{1} HWc1,将其按照channel-level分为 g g g组,每组的通道数为 c 1 / g c_{1}/g c1/g,因此卷积核的深度也要变为 c 1 / g c_{1}/g c1/g,此时可认为有 g g g个卷积核去对应处理一个特征图生成 g g g个通道的特征图。若预期输出的特征图为通道数为 c 2 c_{2} c2,则总卷积核数也是 c 2 c_{2} c2

通道打乱
通道打乱并不是随机打乱,而是有规律地打乱。
在这里插入图片描述(a)表示的是使用分组卷积处理未加打乱的特征图。每一个输出通道都对应组内的输入通道。(b)对组卷积GConv1处理后的特征图channel进行如上方式的打乱,此时大部分输出通道会对应不同组 的输入通道;(c )是与(b)的等价实现,将通道调整到合适的位置。

ShuffleNet单元

在这里插入图片描述(a)是ResNet提出的bottleneck层,只是将3×3的卷积替换为depthwise(DW)卷积。(b)是1×1卷积变为pointwise分组卷积(GConv),并且加入了通道打乱。按照DW卷积的原论文,在3×3的DW后面不添加非线性因素。最后的点卷积用来匹配相加操作。( c)加入了stride=2去减少特征图尺寸,旁路加入平均池化层来维持相同的尺寸,最终在channel水平上连接特征图。

ShuffleNet网络结构

在这里插入图片描述
表格中的complexity表示FLOPs。stage2阶段的pointwise卷积不使用组卷机。对于一个bottleneck单元,对于输入维度为 c × h × w c\times h\times w c×h×w的特征图,设bottleneck的channel数为 m m m,输出channel数为 4 m 4m 4m。对于每一个stage的第一个bottleneck,对应图( c),FLOPs的计算规则为: h × w × c × m g + h 2 × w 2 × ( 9 m + 4 m × m g ) h\times w\times c\times \frac{m}{g}+\frac{h}{2}\times \frac{w}{2}\times(9m+4m\times \frac{m}{g})\\ h×w×c×gm+2h×2w×(9m+4m×gm)
对于其他bottleneck,输入和输出特征图的尺寸和channel数保持不变,所以为: h × w × ( c m / g + 9 m + c m / g ) = h w ( 2 c m / g + 9 m ) h\times w\times (cm/g+9m+cm/g)=hw(2cm/g+9m) h×w×(cm/g+9m+cm/g)=hw(2cm/g+9m)

'''ShuffleNet in PyTorch. See the paper "ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices" for more details. '''
import torch
import torch.nn as nn
import torch.nn.functional as F


class ShuffleBlock(nn.Module):
    def __init__(self, groups):
        super(ShuffleBlock, self).__init__()
        self.groups = groups

    def forward(self, x):
        '''Channel shuffle: [N,C,H,W] -> [N,g,C/g,H,W] -> [N,C/g,g,H,w] -> [N,C,H,W]'''
        N,C,H,W = x.size()
        g = self.groups
        # 维度变换之后必须要使用.contiguous()使得张量在内存连续之后才能调用view函数
        return x.view(N,g,int(C/g),H,W).permute(0,2,1,3,4).contiguous().view(N,C,H,W)


class Bottleneck(nn.Module):
    def __init__(self, in_planes, out_planes, stride, groups):
        super(Bottleneck, self).__init__()
        self.stride = stride

        # bottleneck层中间层的channel数变为输出channel数的1/4
        mid_planes = int(out_planes/4)


        g = 1 if in_planes==24 else groups
        # 作者提到不在stage2的第一个pointwise层使用组卷积,因为输入channel数量太少,只有24
        self.conv1 = nn.Conv2d(in_planes, mid_planes,
                               kernel_size=1, groups=g, bias=False)
        self.bn1 = nn.BatchNorm2d(mid_planes)
        self.shuffle1 = ShuffleBlock(groups=g)
        self.conv2 = nn.Conv2d(mid_planes, mid_planes,
                               kernel_size=3, stride=stride, padding=1,
                               groups=mid_planes, bias=False)
        self.bn2 = nn.BatchNorm2d(mid_planes)
        self.conv3 = nn.Conv2d(mid_planes, out_planes,
                               kernel_size=1, groups=groups, bias=False)
        self.bn3 = nn.BatchNorm2d(out_planes)

        self.shortcut = nn.Sequential()
        if stride == 2:
            self.shortcut = nn.Sequential(nn.AvgPool2d(3, stride=2, padding=1))

    def forward(self, x):
        out = F.relu(self.bn1(self.conv1(x)))
        out = self.shuffle1(out)
        out = F.relu(self.bn2(self.conv2(out)))
        out = self.bn3(self.conv3(out))
        res = self.shortcut(x)
        out = F.relu(torch.cat([out,res], 1)) if self.stride==2 else F.relu(out+res)
        return out


class ShuffleNet(nn.Module):
    def __init__(self, cfg):
        super(ShuffleNet, self).__init__()
        out_planes = cfg['out_planes']
        num_blocks = cfg['num_blocks']
        groups = cfg['groups']

        self.conv1 = nn.Conv2d(3, 24, kernel_size=1, bias=False)
        self.bn1 = nn.BatchNorm2d(24)
        self.in_planes = 24
        self.layer1 = self._make_layer(out_planes[0], num_blocks[0], groups)
        self.layer2 = self._make_layer(out_planes[1], num_blocks[1], groups)
        self.layer3 = self._make_layer(out_planes[2], num_blocks[2], groups)
        self.linear = nn.Linear(out_planes[2], 10)

    def _make_layer(self, out_planes, num_blocks, groups):
        layers = []
        for i in range(num_blocks):
            if i == 0:
                layers.append(Bottleneck(self.in_planes,
                                         out_planes-self.in_planes,
                                         stride=2, groups=groups))
            else:
                layers.append(Bottleneck(self.in_planes,
                                         out_planes,
                                         stride=1, groups=groups))
            self.in_planes = out_planes
        return nn.Sequential(*layers)

    def forward(self, x):
        out = F.relu(self.bn1(self.conv1(x)))
        out = self.layer1(out)
        out = self.layer2(out)
        out = self.layer3(out)
        out = F.avg_pool2d(out, 4)
        out = out.view(out.size(0), -1)
        out = self.linear(out)
        return out


def ShuffleNetG2():
    cfg = { 
   
        'out_planes': [200,400,800],
        'num_blocks': [4,8,4],
        'groups': 2
    }
    return ShuffleNet(cfg)

def ShuffleNetG3():
    cfg = { 
   
        'out_planes': [240,480,960],
        'num_blocks': [4,8,4],
        'groups': 3
    }
    return ShuffleNet(cfg)


def test():
    net = ShuffleNetG2()
    x = torch.randn(1,3,32,32)
    y = net(x)
    print(y)

test()

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/195763.html原文链接:https://javaforall.net

(0)
上一篇 2025年10月10日 下午9:43
下一篇 2025年10月10日 下午10:22


相关推荐

  • 怎样优化电商网站_电商网站

    怎样优化电商网站_电商网站这是最近被问过最多的一个问题,很有必要整理成一篇文章来分享。本文讨论的是新接手一个电商网站,不是接手一个新电商网站。因此,网站默认为已运营一段时间,有历史数据可供参考。我一直主张基于数据分析的网站优化,特别是电商网站。同时,做事的时候,可以再加上一点点直觉。直觉是什么?直觉是一个人的学识再…

    2022年10月1日
    5
  • idea2019.3.4激活码【2021最新】

    (idea2019.3.4激活码)最近有小伙伴私信我,问我这边有没有免费的intellijIdea的激活码,然后我将全栈君台教程分享给他了。激活成功之后他一直表示感谢,哈哈~IntelliJ2021最新激活注册码,破解教程可免费永久激活,亲测有效,下面是详细链接哦~https://javaforall.net/100143.html…

    2022年3月30日
    54
  • CORBA简介_吴帝聪简介

    CORBA简介_吴帝聪简介 1.CORBA:CommonObjectRequestBrokerArchitecture,通用对象请求代理体系。是由对象管理组(ObjectManagementGroup,OMG)制定的一种标准的面向对象分布式应用程序体系规范,旨在为异构分布式环境中,硬件和软件系统的互联而提出的一种解决方案。2.解决异构分布式系统两条主要原则:(1).寻求独立于平台的模型和抽象,这

    2022年4月19日
    53
  • 一文读懂微前端架构

    一文读懂微前端架构转载本文请注明出处 微信公众号 EAWorld 前端开发在程序猿中无疑是一个比较苦逼的存在 作为一个前端开发 你必须要掌握 Javascript HTML CSS 这三大基础 Javascript

    2026年3月17日
    1
  • ofbiz学习笔记

    ofbiz学习笔记

    2022年1月27日
    56
  • Java Map集合的详解「建议收藏」

    Java Map集合的详解「建议收藏」一,Map先说一下Map吧~如果程序中存储了几百万个学生,而且经常需要使用学号来搜索某个学生,那么这个需求有效的数据结构就是Map。Map是一种依照键(key)存储元素的容器,键(key)很像下标,在List中下标是整数。在Map中键(key)可以使任意类型的对象。Map中不能有重复的键(Key),每个键(key)都有一个对应的值(value)。一个键(key)和它对应的值构成ma

    2022年5月30日
    40

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号