【机器学习】数据归一化——MinMaxScaler理解

【机器学习】数据归一化——MinMaxScaler理解文章目录前言公式实例前言前阵在查sklearn的归一化方法MinMaxScaler的时候,发现找到的文章解释的一塌糊涂,一般都是扔个公式加一堆代码就敷衍了事了,所以这次写一篇讲述MinMaxScaler核心功能的文章。公式会查MinMaxScaler的基本上都应该理解数据归一化,本质上是将数据点映射到了[0,1]区间(默认),但实际使用的的时候也不一定是到[0,1],你也可以指定参数feature_range,映射到其他区间,这个后面再讲。首先了解该计算公式:Xstd=X−X.min(axis

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

文章目录

前言

前阵在查sklearn的归一化方法MinMaxScaler的时候,发现找到的文章解释的一塌糊涂,一般都是扔个公式加一堆代码就敷衍了事了,所以这次写一篇讲述MinMaxScaler核心功能的文章。

公式

会查MinMaxScaler的基本上都应该理解数据归一化,本质上是将数据点映射到了[0,1]区间(默认),但实际使用的的时候也不一定是到[0,1],你也可以指定参数feature_range,映射到其他区间,这个后面再讲。


首先了解该计算公式:
X s t d = X − X . m i n ( a x i s = 0 ) X . m a x ( a x i s = 0 ) − X . m i n ( a x i s = 0 ) X s c a l e d = X s t d ∗ ( m a x − m i n ) + m i n X_{std} = \frac{X – X.min(axis=0)}{X.max(axis=0) – X.min(axis=0)}\\ X_{scaled} = X_{std} * (max – min) + min Xstd=X.max(axis=0)X.min(axis=0)XX.min(axis=0)Xscaled=Xstd(maxmin)+min
乍看一下很懵逼,解释一下:

  • X:要归一化的数据,通常是二维矩阵,例如
    [[4,2,3]
    [1,5,6]]
    
  • X.min(axis=0):每列中的最小值组成的行向量,如上面的例子中应该是[1,2,3]
  • X.max(axis=0):每列中的最大值组成的行向量,如上面的例子中应该是[4,5,6]
  • max: 要映射到的区间最大值,默认是1
  • min:要映射到的区间最小值,默认是0
  • X s t d X_{std} Xstd: 标准化结果
  • X s c a l e d X_{scaled} Xscaled: 归一化结果

再用朴实的语言描述一下上面公式所做的事:

  1. 第一步求每个列中元素到最小值距离占该列最大值和最小值距离的比例,这实际上已经是将数据放缩到了[0,1]区间上
  2. 第二步将标准化的数据映射到给定的[min,max]区间

实例

有了上面的基础,我们用代码实现一下这个归一化过程:

from sklearn.preprocessing import MinMaxScaler
import numpy as np

data = np.array([[4,2,3],
                [1,5,6]])

# 手动归一化
feature_range = [0,1]  # 要映射的区间
print(data.min(axis=0))
print(data.max(axis=0))
x_std = (data-data.min(axis=0))/(data.max(axis=0)-data.min(axis=0))
x_scaled = x_std*(feature_range[1]-feature_range[0]) + feature_range[0]
print('手动归一化结果:\n{}'.format(x_scaled))

# 自动归一化
scaler = MinMaxScaler()
print('自动归一化结果:\n{}'.format(scaler.fit_transform(data)))

在这里插入图片描述
手动归一化的部分就是按照公式的,没什么好说,这里简要说一下sklearn。preprocessing.MinMaxScaler的用法,简单来说只有两步:

  1. 初始化一个MinMaxScaler对象:scaler = MinMaxScaler()
  2. 拟合并转换数据,本质上就是先求最大最小值,然后对数据按照公式计算:scaler.fit_transform(data)

前面说了,我们还可以将数据映射到[0,1]以外的区间,如下代码:

scaler2 = MinMaxScaler(feature_range=[1,2])
print('自动归一化结果:\n{}'.format(scaler2.fit_transform(data)))

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/183244.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • React入门小记

    React入门小记

    2021年7月5日
    99
  • VDbench 参数信息[通俗易懂]

    VDbench 参数信息[通俗易懂]HD:主机定义 如果您希望展示当前主机,则设置hd=localhost。如果希望指定一个远程主机,hd=label。 system=IP地址或网络名称。 clients=用于模拟服务器的正在运行的客户端数量。 SD:存储定义 sd=标识存储的名称。 host=存储所在的主机的ID。 lun=原始磁盘、磁带或文件系统的名称。vdbench也可为您创建一个磁盘。 threads=对SD的最大并发I/O请求数量。默认

    2022年5月19日
    90
  • docker(2)CentOS 7安装docker环境「建议收藏」

    docker(2)CentOS 7安装docker环境「建议收藏」前言前面一篇学了mac安装docker,这篇来学习在linux上安装docker环境准备Docker支持以下的CentOS版本,目前,CentOS仅发行版本中的内核支持Docker。Doc

    2022年7月29日
    16
  • Python 根据AIC准则定义向前逐步回归进行变量筛选(二)

    Python 根据AIC准则定义向前逐步回归进行变量筛选(二)Python根据AIC准则定义向前逐步回归进行变量筛选(二)AIC简介AIC即赤池值,是衡量模型拟合优良性和模型复杂性的一种标准,在建立多元线性回归模型时,变量过多,且有不显著的变量时,可以使用AIC准则结合逐步回归进行变量筛选。AICD数学表达式如下:AIC=2p+n(log(SSE/n))AIC=2p+n(log(SSE/n))AIC=2p+n(log(SSE/n))其中,ppp…

    2022年5月24日
    182
  • idea激活码永久【注册码】

    idea激活码永久【注册码】,https://javaforall.net/100143.html。详细ieda激活码不妨到全栈程序员必看教程网一起来了解一下吧!

    2022年3月18日
    41
  • Linux 命令学习之dpkg命令详解

    Linux 命令学习之dpkg命令详解dpkg是一个Debian的一个命令行工具,它可以用来安装、删除、构建和管理Debian的软件包。下面是它的一些命令解释:1)安装软件命令行:dpkg-i示例:dpkg-iavg71flm_r28-1_i386.deb2)安装一个目录下面所有的软件包命令行:dpkg-R示例:dpkg-R/usr/local/src3)释放软件包,但是不进行配置命令

    2022年5月12日
    187

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号