深度学习—3.Pytorch基础

深度学习—3.Pytorch基础

一、张量

(一)张量介绍

    张量(也可以叫做Tensors)是pytorch中数据存储和表示的一个基本数据结构和形式,它是一个多维数组,是标量、向量、矩阵的高维拓展。它相当于Numpy的多维数组(ndarrays),但是tensor可以应用到GPU上加快计算速度, 并且能够存储数据的梯度信息。
    维度大于2的一般称为高维张量。以计算机的图像处理数据为例
    3维张量,可以表示图像的:通道数×高×宽
    4维张量,通常表示图像的:样本数×通道数×高×宽

在这里插入图片描述

(二)张量的创建

①基于torch.tensor()创建张量

torch.tensor()创建张量共有8个属性:data、dtype、shape、device、requires_grad、grad、grad_fn

import torch
#创建张量
#参数data:可以为列表,或者数组
t1=torch.tensor([3,5])
print(t1)
print("类型",type(t1))
print("设备",t1.device)
print("要求梯度",t1.requires_grad)
print("梯度值",t1.grad)
print("梯度函数",t1.grad_fn)
print("是否为叶子",t1.is_leaf)#自动创建的为叶子True
运行结果:
tensor([3, 5])
类型 <class 'torch.Tensor'>
设备 cpu
要求梯度 False
梯度值 None
梯度函数 None
是否为叶子 True

②创建张量,修改数据类型,要求梯度

import torch
#创建张量,修改数据类型为float,增加梯度回传之后张量的变化
t1=torch.tensor([3,5],dtype=torch.float,requires_grad=True)
print(t1)
print("类型",type(t1))
print("设备",t1.device)
print("要求梯度",t1.requires_grad)
print("梯度值",t1.grad)
print("梯度函数",t1.grad_fn)
print("是否为叶子",t1.is_leaf)#自动创建的为叶子True
运行结果:
tensor([3., 5.], requires_grad=True)
类型 <class 'torch.Tensor'>
设备 cpu
要求梯度 True
梯度值 None
梯度函数 None
是否为叶子 True

③创建张量,非叶子(必须要求梯度,才可以)

import torch
#创建张量
t1=torch.tensor([3,5],dtype=torch.float,requires_grad=True)
t2=t1*10
print(t2)
print("类型",type(t2))#<class 'torch.Tensor'>
print("设备",t2.device)#cpu
print("要求梯度",t2.requires_grad)#False
print("梯度值",t2.grad)#None
print("梯度函数",t2.grad_fn)#Mul是加法等到的
#只有叶子可以计算梯度,不是叶子没有梯度,如果查看会出警告
print("是否为叶子",t2.is_leaf)#<Add>自动创建的为叶子True
运行结果:
tensor([30., 50.], grad_fn=<MulBackward0>)
类型 <class 'torch.Tensor'>
设备 cpu
要求梯度 True
梯度值 None
梯度函数 <MulBackward0 object at 0x000000000258E7B8>#Mul是加法等到的
是否为叶子 False

总结
(1)如果原始tensor是要求梯度,该tensor是一个叶子节点,基于该tensor的操作是个非叶子节点,没有梯度信息的
(2)如果原始tensor是不要求梯度,该tensor是一个叶子节点,基于该tensor的操作得到也是一个叶子节点

④利用Numpy创建张量

1、直接利用Numpy创建数组,转换为张量
import torch
import  numpy as np

#基于Numpy的创建Tensor
arr=np.array([1,2,3,6])
t1=torch.tensor(arr)
print(t1)
运行结果
tensor([1, 2, 3, 6], dtype=torch.int32)
2、修改原数组,看看张量与数组的关系

import torch
import  numpy as np
#基于Numpy的创建Tensor
arr=np.array([1,2,3,6])
t1=torch.tensor(arr)
print(t1)
arr[0]=1000
print('修改后'.center(60,'-'))
print("数组\n",arr)
print("tensor\n",t1)

tensor([1, 2, 3, 6], dtype=torch.int32)
----------------------------修改后-----------------------------
数组
 [1000    2    3    6]
tensor
 tensor([1, 2, 3, 6], dtype=torch.int32)
3、利用form_numpy创建张量,并修改和查看内存
import torch
import  numpy as np
#基于Numpy的创建Tensor
arr=np.array([1,2,3,6])
t1=torch.tensor(arr)
print(t1)
#如果使用from_numpy创建tensor,张量和数组共享内存,指向同一个共享
#张量和数组,一个变换,另一个也变换
t2=torch.from_numpy(arr)
arr[0]=1000
print('修改后'.center(60,'-'))
print("数组\n",arr,id(arr))
print("tensor\n",t2,id(arr))
运行结果:
tensor([1, 2, 3, 6], dtype=torch.int32)
----------------------------修改后-----------------------------
数组
 [1000    2    3    6] 4151456
tensor
 tensor([1000,    2,    3,    6], dtype=torch.int32) 4151456
4、利用form_numpy创建张量后进行修改,将张量转换为数组
import torch
import  numpy as np

#基于Numpy的创建Tensor
arr=np.array([1,2,3,6])
t2=torch.from_numpy(arr)
arr[0]=1000
t2[-1]=999
print('修改后'.center(60,'-'))
print("数组\n",arr,id(arr))
print("tensor\n",t2,id(arr))
#将tensor转换为数组
t2_arrr=t2.numpy()
print(t2_arrr, type(t2_arrr))
运行结果:
----------------------------修改后-----------------------------
数组
 [1000    2    3  999] 31348896
tensor
 tensor([1000,    2,    3,  999], dtype=torch.int32) 31348896
[1000    2    3  999] <class 'numpy.ndarray'>

二、梯度

只有x是叶子节点,其他节点y、z都是被动生成的,通过out.backward()进行反向传播

import torch
#x是叶子节点
x=torch.ones((2,2),requires_grad=True)
print(x)
y=x+2

z=y*y*3
print(y)
print(z)
out=z.mean()
print(out)
#在进行反向传播之前,查看x的梯度
print("x的梯度before",x.grad)
#反向传播
out.backward()
#只有叶子节点才能计算梯度,查看x的梯度
print("x的梯度",x.grad)
运行结果:
tensor([[1., 1.],
        [1., 1.]], requires_grad=True)
tensor([[3., 3.],
        [3., 3.]], grad_fn=<AddBackward0>)
tensor([[27., 27.],
        [27., 27.]], grad_fn=<MulBackward0>)
tensor(27., grad_fn=<MeanBackward0>

x的梯度before None

x的梯度 tensor([[4.5000, 4.5000],
        [4.5000, 4.5000]])

三、反向传播

利用一个具体环境,理解反向传播:
已知房屋的面积与价格成正比例关系,利用通过已知的真实价格与

import torch

#设置随机种子,使得随机数不发生变换
torch.manual_seed(1)
#面积
x=torch.randint(low=10,high=40,size=(10,1))
#print(x)

#价格
y=5*x+torch.randn(10,1)
#y=5*x+torch.linspace(-0.002,0.002,100).reshape(-1,1)
#print(y)

#寻找w,b
#随机制订w,b
#w=torch.randn([2.0],requires_grad=True)#权重,要求梯度,才能回传
w=torch.tensor([2.0],requires_grad=True)
#b=torch.randn(1,requires_grad=True)#偏执,要求梯度,才能回传
b=torch.zeros(1,requires_grad=True)

#定义学习率
lr=0.0001
for epoch in range(5000):
    # wx=w*x+b
    #print(wx)
    y_pred=w*x+b
    #回归问题:1*2((y_pred-y)**2)
    #均方误差
    loss=0.5*(((y_pred-y)**2).mean())#很多值
    #print(loss)
    #print("w之前的梯度", w.grad)
    loss.backward()
    #print("w的梯度",w.grad)
    #更新梯度
    #w = w - lr * w.grad
    w.data= w.data - lr * w.grad
    #b = b - lr * b.grad
    b.data = b.data - lr * b.grad
    #结束条件
    print("第{}次的loss={}".format(epoch,loss))
    print("第{}次的w={},b={}:".format(epoch, w.grad, b.grad))
    if loss.data.numpy()<1:
        break

print("最终的w和b",w,b)

import matplotlib.pyplot as plt
plt.scatter(x.data.numpy(),y.data.numpy())
#plt.plot(x.data.numpy,(w*x+b).data.numpy())
plt.show()
0次的loss=3678.2663574218750次的w=tensor([-2451.6199]),b=tensor([-82.4380]):
第1次的loss=3101.1530761718751次的w=tensor([-4702.6914]),b=tensor([-158.1258]):
第2次的loss=2131.903808593752次的w=tensor([-6569.0713]),b=tensor([-220.8654]):
第3次的loss=1081.17980957031253次的w=tensor([-7898.0845]),b=tensor([-265.5179]):
第4次的loss=285.75778198242194次的w=tensor([-8581.0156]),b=tensor([-288.4241]):
第5次的loss=0.58497250080108645次的w=tensor([-8561.9990]),b=tensor([-287.7038]):
最终的w和b tensor([5.8764], requires_grad=True) tensor([0.1303], requires_grad=True)

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/114571.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • hz的单位换算速度_hz与w怎么换算

    hz的单位换算速度_hz与w怎么换算物质在1秒内完成周期性变化的次数叫做频率,常用f表示。物理中频率的单位是赫兹(Hz),简称赫,也常用千赫(kHz)或兆赫(MHz)或GHz做单位,单位符号为Hz。.hz是一个频率的单位,它表示物体在一秒钟之内振动一次,它的频率就是1hz。k代表千,khz即千赫芝;m代表兆,mkhz即兆赫芝;还有一个g代表京,它们都是英美换算单.20kHz等于20000Hz。具体换算过程如下。千赫兹(KHz)和赫兹…

    2022年9月6日
    2
  • 十进制小数转换为二进制小数采用方法为乘2取整法?_小数点二进制转10进制

    十进制小数转换为二进制小数采用方法为乘2取整法?_小数点二进制转10进制十进制小数转换成二进制小数采用"乘2取整,顺序排列"法。具体做法是:用2乘十进制小数,可以得到积,将积的整数部分取出,再用2乘余下的小数部分,又得到一个积,再将积的整数部分取出,如此进行,直到积中的整数部分为零,或者整数部分为1,此时0或1为二进制的最后一位。或者达到所要求的精度为止。  然后把取出的整数部分按顺序排列起来,先取的整数作为二进制小数的高位有效位,后取的整数作为低位有…

    2022年9月24日
    0
  • ps -el_scalp revitalizer

    ps -el_scalp revitalizerkworker通过ps命令查看进程状态时,可以查看到kworker相关,大部分格式都是kworker/u2:0或者kworker/0:0H,查看资料得知:内核中有很多kworker,有绑定cpu的和不绑定cpu的,它支持cpu的hotplug时work的迁移。u:是unbound的缩写,代表没有绑定特定的CPU,kworker/u2:0中的2是wor…

    2022年9月25日
    0
  • DAVINCI DM365-DM368开发攻略——开发环境搭建(DVSDK4.02) 适用于DM3730[通俗易懂]

    DAVINCI DM365-DM368开发攻略——开发环境搭建(DVSDK4.02) 适用于DM3730[通俗易懂]DAVINCIDM365-DM368开发攻略——开发环境搭建(DVSDK4.02)标签:开发环境 搭建 dvsdk DM368 DM365原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://zjbintsystem.blog.51cto.com/964211/621435第一节、 技术开发环

    2022年8月13日
    1
  • tar 打包压缩目录

    tar 打包压缩目录tar打包压缩目录tar-czfsmall.tar.gzsmall(目录名) ;压缩并打包目录查看cpu信息 | crontab10:51浏览(11421)评论 (2)分类: linux相关推荐评论2楼 Du

    2022年5月31日
    55
  • 学习Spark的入门教程——《Spark大数据实例开发教程》

    学习Spark的入门教程——《Spark大数据实例开发教程》去年年底出的一本学习Spark大数据的教程,文笔上言简意赅,只讲最常用的内容,很适合入门学习。是面向Spark开发者的一本实用参考书,结合实例全面系统的介绍了Spark工具的开发与使用。全书包括五章内容,第一章介绍Spark生态圈以及SparkRDD的编程模型等内容;第二章介绍SparkRDD实战案例与解析,包含Spark应用程序的部署、Spark的各种应用案例与解析、…

    2022年5月2日
    21

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号