PyTorch的nn.Linear()详解

PyTorch的nn.Linear()详解PyTorch 的 nn Linear 是用于设置网络中的全连接层的 需要注意的是全连接层的输入与输出都是二维张量 一般形状为 batch size size 不同于卷积层要求输入输出是四维张量 其用法与形参说明如下 in features 指的是输入的二维张量的大小 即输入的 batch size size 中的 size out features 指的是输出的二维张量的大小 即

  PyTorch的nn.Linear()是用于设置网络中的全连接层的需要注意在二维图像处理的任务中,全连接层的输入与输出一般都设置为二维张量,形状通常为[batch_size, size],不同于卷积层要求输入输出是四维张量。其用法与形参说明如下:
在这里插入图片描述
  in_features指的是输入的二维张量的大小,即输入的[batch_size, size]中的size
  out_features指的是输出的二维张量的大小,即输出的二维张量的形状为[batch_size,output_size],当然,它也代表了该全连接层的神经元个数
  从输入输出的张量的shape角度来理解,相当于一个输入为[batch_size, in_features]的张量变换成了[batch_size, out_features]的输出张量。
用法示例:










import torch as t from torch import nn # in_features由输入张量的形状决定,out_features则决定了输出张量的形状  connected_layer = nn.Linear(in_features = 64*64*3, out_features = 1) # 假定输入的图像形状为[64,64,3] input = t.randn(1,64,64,3) # 将四维张量转换为二维张量之后,才能作为全连接层的输入 input = input.view(1,64*64*3) print(input.shape) output = connected_layer(input) # 调用全连接层 print(output.shape) 

这段代码运行结果为:

input shape is %s torch.Size([1, 12288]) output shape is %s torch.Size([1, 1]) 
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/221726.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月17日 下午5:25
下一篇 2026年3月17日 下午5:26


相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号