mse pytorch_pytorch scatter

mse pytorch_pytorch scatter基本概念均方误差(meansquareerror,MSE),是反应估计量与被估计量之间差异程度的一种度量,设ttt是根据子样确定的总体参数θ\thetaθ的一个估计量,(θ−t)2(\theta-t)^{2}(θ−t)2的数学期望,称为估计量ttt的均方误差。pytorch中MSELoss函数介绍torch.nn.MSELoss(size_average=True,reduce=Tru…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

基本概念

均方误差(mean square error, MSE),是反应估计量与被估计量之间差异程度的一种度量,设 t t t是根据子样确定的总体参数 θ \theta θ的一个估计量, ( θ − t ) 2 (\theta-t)^{2} (θt)2的数学期望,称为估计量 t t t的均方误差。

pytorch中MSELoss函数介绍

t o r c h . n n . M S E L o s s ( s i z e _ a v e r a g e = T r u e , r e d u c e = T r u e , r e d u c t i o n = ′ m e a n ′ ) torch.nn.MSELoss(size\_average=True, reduce=True, reduction=’mean’) torch.nn.MSELoss(size_average=True,reduce=True,reduction=mean)
创建一个度量:输入 x x x(模型预测输出)和目标 y y y之间的均方误差标准。
l o s s ( x , y ) = 1 n ∑ ( x i − y i ) 2 loss(x,y)=\frac{1}{n}\sum(x_i-y_i)^2 loss(x,y)=n1(xiyi)2

其实按照我们习惯的写法,预测值是 y ^ \hat{y} y^,真值是 y y y,那么公式为:
l o s s ( y ^ , y ) = 1 n ∑ ( y ^ i − y i ) 2 loss(\hat{y},y)=\frac{1}{n}\sum(\hat{y}_i-y_i)^2 loss(y^,y)=n1(y^iyi)2

  • y ^ \hat{y} y^ y y y可以是任意形状,每个包含 n n n个元素。
  • n n n个元素对应差值的平方求和,得到的结果再除以 n n n
  • 如果在创建 M S E L o s s MSELoss MSELoss实例的时候,在构造函数中传入 s i z e _ a v e r a g e = F a l s e size\_average=False size_average=False,那么求出来的平方和将不会除以 n n n
  • 如果 r e d u c e = F a l s e reduce=False reduce=False,那么 s i z e _ a v e r a g e size\_average size_average参数失效,直接返回向量形式 l o s s loss loss

实验(使用jupyter notebook进行实验)

预测值和真值都是形状为 ( 2 , 5 ) (2, 5) (2,5)的张量,使用 r a n d n randn randn函数随机产生。

import torch
import torch.nn as nn
import math
import numpy as np
#默认求的是平均值、

input = torch.randn(2, 5, requires_grad=True)#预测值
target = torch.randn(2, 5)#真值
print('input is', input)
print('target is', target)

输出:

input is tensor([[-0.8038, -1.0976, -0.2270, -0.6983, -0.2839],
        [-0.3291, -0.6583, -1.1446, -0.0108, -0.4827]], requires_grad=True)
target is tensor([[-1.4185,  0.5586,  0.3662,  0.9048,  1.5899],
        [ 1.5777,  0.7461,  2.4658, -0.3369,  0.7868]])

1、实例化MSELoss,使用默认设置(输出的loss为标量形式,并且是平均值):

loss = nn.MSELoss()
output = loss(input, target)
print('output is', output)

输出:

output is tensor(2.9916, grad_fn=<MseLossBackward>)

验证(自己使用公式计算loss值,公式为 l o s s = 1 n ∑ ( y i ^ − y i ) 2 loss=\frac{1}{n}\sum(\hat{y_i}-y_i)^2 loss=n1(yi^yi)2):

sum_1 = []
harm = 0
for i in range(2):
    for j in range(5):
       subtract = input[i][j] - target[i][j]
       square = subtract * subtract
       harm += square

    sum_1.append(harm)
    harm = 0
# print(sum_1)
rows ,cols = input.size()
he = 0
for i in range(2):
    he += sum_1[i]
# print('')
L = he / (rows * cols)
print('自己计算loss:', L)

输出:

自己计算loss: tensor(2.9916, grad_fn=<DivBackward0>)

2、实例化MSELoss,不使用平均值(size_average=False)

loss = nn.MSELoss(size_average = False)
output = loss(input, target)
print('output is', output)

输出:

output is tensor(29.9156, grad_fn=<MseLossBackward>)

3、实例化MSELoss, 输出为向量形式(reduce=False)

loss = nn.MSELoss(reduce = False)
output = loss(input, target)
print('output is', output)

输出:

output is tensor([[ 0.3779,  2.7431,  0.3519,  2.5697,  3.5111],
        [ 3.6359,  1.9726, 13.0353,  0.1064,  1.6118]],
       grad_fn=<MseLossBackward>)

4、验证使用reduce=False时,size_average失效。

  • 1、 r e d u c e = F a l s e , s i z e _ a v e r a g e = F a l s e reduce=False, size\_average=False reduce=False,size_average=False
loss = nn.MSELoss(reduce = False, size_average = False)
output = loss(input, target)
print('output is', output)

输出:

output is tensor([[ 0.3779,  2.7431,  0.3519,  2.5697,  3.5111],
        [ 3.6359,  1.9726, 13.0353,  0.1064,  1.6118]],
       grad_fn=<MseLossBackward>)
  • 2、 r e d u c e = F a l s e , s i z e _ a v e r a g e = T r u e reduce=False, size\_average=True reduce=False,size_average=True
loss = nn.MSELoss(reduce = False, size_average = True)
output = loss(input, target)
print('output is', output)

输出:

output is tensor([[ 0.3779,  2.7431,  0.3519,  2.5697,  3.5111],
        [ 3.6359,  1.9726, 13.0353,  0.1064,  1.6118]],
       grad_fn=<MseLossBackward>)
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/192066.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • laravel之跨域请求(一)「建议收藏」

    laravel之跨域请求(一)「建议收藏」laravel之跨域请求(一)

    2022年4月24日
    43
  • sql存储过程实例详解_sql server创建存储过程

    sql存储过程实例详解_sql server创建存储过程问题提出  我使用过几次SQLServer,但所有与数据库的交互都是通过应用程序的编码来实现的。我不知到在哪里使用存储过程,也不了解实现存储过程需要做哪些工作。希望能详细说明。  存储过程是存储于数据库中的一组T-SQL语句。有了存储过程之后,与数据库的交互就没有必要在程序中写一堆的SQL语句,而只需用一条语句调用适当的存储过程来完成就可以了。另外,由于代码是存储在数据库

    2022年9月26日
    0
  • android 屏幕触摸事件及处理机制解读

    android 屏幕触摸事件及处理机制解读原创性声明:Android最让我开心和有成就感的就是可以实现自定义,追根朔源是开源带来的,出于普适性,google不会提供定制性特别强的视图组件,但是我们可以自己动手,丰衣足食。但是,往往自定义的时候会出现好多问题,说到底是还没有吃透,我不推荐学生时期自学的时候过分追究原理,那个时期并不合适做这件事,那种闭关到世界第一再出关的苦学我也是不认可的。学习就是要循序渐进,慢慢吃透,扩展出

    2022年9月11日
    0
  • 点云处理算法整理(超详细教程)

    点云处理算法整理(超详细教程)

    2020年11月8日
    842
  • 软考之计算机病毒「建议收藏」

    软考之计算机病毒「建议收藏」在复习软考的时候,发现计算机病毒方面的知识在软件设计师教程这本书上没怎么介绍,但是这部分的内容还常考。所以把计算机病毒方面的知识总结了一下,下面我就来一一介绍一下这些病毒。 1、引导型病毒:引导型病毒隐藏在磁盘内,在系统文件启动前已经驻留在内存中。主要感染磁盘的引导区,影响软盘或硬盘的引导扇区 2、文件型病毒:通常感染执行文件(包括exe和com文件等)但也有些会感染其他可执行

    2022年6月5日
    31
  • restsharp.dll_restbed

    restsharp.dll_restbed一、RestSharp简绍RestSharp是一个轻量的,不依赖任何第三方的组件或者类库的Http的组件。RestSharp具体以下特性;1、支持.NET3.5+,Silverlight4,WindowsPhone7,Mono,MonoTouch,MonoforAndroid,CompactFramework3.5等  2、通过NuGet方便引入到任何项目(In…

    2022年9月8日
    0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号