pytorch mseloss_pytorch中文手册

pytorch mseloss_pytorch中文手册1、均方差损失函数loss,x,y可以是向量或者矩阵,i是下标。很多的loss函数都有size_average和reduce两个布尔类型的参数。因为一般损失函数都是直接计算batch的数据,因此返回的loss结果都是维度为(batch_size,)的向量。(说的是一般的情况,这里返回的没有维度为(batch_size,)这种情况)2、nn.MSELoss()参数介绍(1)如果reduction=‘none’,直接返回向量形式的loss(2)如果redu

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

1、均方差损失函数

在这里插入图片描述

  • loss, x, y 可以是向量或者矩阵,i 是下标。

  • 很多的loss函数都有size_average和reduce两个布尔类型的参数。因为一般损失函数都是直接计算 batch 的数据,因此返回的loss 结果都是维度为 (batch_size, ) 的向量。(说的是一般的情况,这里返回的没有维度为(batch_size,)这种情况)

2、nn.MSELoss()参数介绍

  • (1)如果 reduction = ‘none’,直接返回向量形式的 loss
  • (2)如果 reduction ≠ ‘none’,那么 loss 返回的是标量
      a)如果 reduction=‘mean’,返回 loss.mean(); 注意:默认情况下, reduction=‘mean’
      b)如果 reduction=‘sum’,返回 loss.sum();

3、代码

import torch
import numpy as np

a = np.array([[1, 2], [3, 4]])
b = np.array([[2, 3], [4, 4]])
inputs = torch.autograd.Variable(torch.from_numpy(a))
targets = torch.autograd.Variable(torch.from_numpy(b))

# ****************************************************
# 1、返回向量
# ****************************************************
loss_fn_1 = torch.nn.MSELoss(reduction='none')
# 将Variable类型统一为float()(tensor类型也是调用xxx.float())
loss_1 = loss_fn_1(inputs.float(), targets.float())         
print(loss_1)

# ****************************************************
# 2、返回平均值
# ****************************************************
loss_fn_2 = torch.nn.MSELoss(reduction='mean')
# 将Variable类型统一为float()(tensor类型也是调用xxx.float())
loss_2 = loss_fn_2(inputs.float(), targets.float())         
print(loss_2)

# ****************************************************
# 3、默认情况下:返回平均值
# ****************************************************
loss_fn_3 = torch.nn.MSELoss()
# 将Variable类型统一为float()(tensor类型也是调用xxx.float())
loss_3 = loss_fn_3(inputs.float(), targets.float())         
print('*'*30)
print(loss_3)               # tensor(0.7500)
print(loss_3.shape)         # torch.Size([])
print(type(loss_3))         # <class 'torch.Tensor'>
# .item()方法 是得到一个元素张量里面的元素值,具体就是 用于将一个零维张量转换成浮点数
print(loss_3.item())        # 0.75 
print(type(loss_3.item()))  # <class 'float'>
print('*'*30)
# *****************************************************
# 4、返会求和值
# *****************************************************
loss_fn_4 = torch.nn.MSELoss(reduction='sum')
# 将Variable类型统一为float()(tensor类型也是调用xxx.float())
loss_4 = loss_fn_4(inputs.float(), targets.float())         
print(loss_4)

4、运行结果

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/192323.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • scipy安装失败

    scipy安装失败pipinstallscipy安装失败可以从uci网站下载wheel安装包然后执行pipinstallxx.whl进行安装http://www.lfd.uci.edu/~gohlke/pythonlibs/#scipy转载于:https://www.cnblogs.com/timlong/p/6068370.html…

    2025年5月31日
    6
  • phpstorm 激活码生成【最新永久激活】2022.02.28

    (phpstorm 激活码生成)2021最新分享一个能用的的激活码出来,希望能帮到需要激活的朋友。目前这个是能用的,但是用的人多了之后也会失效,会不定时更新的,大家持续关注此网站~IntelliJ2021最新激活注册码,破解教程可免费永久激活,亲测有效,下面是详细链接哦~https://javaforall.net/100143.html…

    2022年4月2日
    294
  • pycharm 模板_pycharm基础代码

    pycharm 模板_pycharm基础代码在Pycharm中编码时,当我们输入main再按下Tab键,编辑器会自动出现如下代码块:if__name__==’__main__’:类似地,如果我们有一大段代码要经常重复使用,可以将这段代码设置成一个模版,通过自定义的指令+Tab键直接导入代码。比如我们有如下一段代码:fromPyQt5.Qtimport*classWindow(QWidget):def__init__(self):super().__init__()

    2022年8月25日
    9
  • mux-vlan原理_三层交换机配置实例

    mux-vlan原理_三层交换机配置实例学网络,就在IE-LAB国内高端网络工程师培养基地MUXVLAN(MultiplexVLAN)提供了一种通过VLAN进行网络资源控制的机制。通过MUXVLAN提供的二层流量隔离的机制可以实现企业内部员工之间互相通信,而企业外来访客之间的互访是隔离的。为了实现报文之间的二层隔离,用户可以将不同的端口加入不同的VLAN,但这样会浪费有限的VLAN资源。采用端口隔离功能,可以实现同-V…

    2026年1月25日
    4
  • out of sync with file system

    out of sync with file system

    2021年7月15日
    75
  • 一点ASMM总结

    一点ASMM总结Oracle的SGA内存结构:BufferCache数据库高速缓存DefaultPool默认的缓冲池,大小由DB_CACHE_SIZE决定KeepPool…

    2022年6月6日
    42

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号