简单的有监督学习实例——简单线性回归[通俗易懂]

简单的有监督学习实例——简单线性回归[通俗易懂]sklearn.linear_model.LinearRegression线性回归https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html首先,要创建一组数据,随机选取一组x数据,然后计算出它在2x-1这条线附近对应的数据,画出其散点图:#演示简单的线性回归i…

大家好,又见面了,我是你们的朋友全栈君。

一、 sklearn.linear_model.LinearRegression 线性回归

https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html

首先,要创建一组数据,随机选取一组x数据,然后计算出它在2x-1这条线附近对应的数据,画出其散点图:

# 演示简单的线性回归
import matplotlib.pyplot as plt
import numpy as np
rng = np.random.RandomState(42)
x = 10 * rng.rand(50)
y = 2 * x - 1 + rng.randn(50)   # 在 2x-1上下附近的x对应的值
plt.scatter(x, y)

在这里插入图片描述
接下来,就按照步骤一步步实现:

1、选择模型类:

在这个例子中,我们想要计算一个简单的线性回归模型,可以直接导入线性回归模型类:

from sklearn.linear_model import LinearRegression
2、选择模型超参数

在上一步选择好模型类之后,还有许多的参数需要配置。比如下面的:

  • 拟合偏移量(直线的截距)
  • 对模型进行归一化处理
  • 对特征进行预处理以提高模型灵活性
  • 在模型中使用哪两种正则化类型
  • 使用多少模型组件

对于这个线性回归实例,可以实例化 LinearRegression 类并用 fit_intercept 超参数设置是否想要拟合直线的截距。

>>>model = LinearRegression(fit_intercept=True)  # fit_intercept为 True 要计算此模型的截距
>>>model
LinearRegression(copy_X=True, fit_intercept=True, n_jobs=None,
         normalize=False)

可以看到model 的参数配置

3、将数据整理成特征矩阵和目标数组

根据Scikit-Learn的数据表示方法,它需要二维特征矩阵和一维目标数组。现在,我们已经有了长度为 n_samples 的目标数组,但还需要将数据 x 整理成 [n_samples, n_features] 的形式。 np.newaxis 是插入新维度。

>>>X = x[:, np.newaxis]  # 将 x 数据整理成 [n_samples, n_features] 的形式
>>>X.shape
(50, 1)
4、用模型拟合数据
model.fit(X, y)   # fit 拟合后的结果存在model属性中

所有通过fit方法获得的模型参数都带一条下划线。

>>>model.coef_     # 拟合的直线斜率
array([1.9776566])
>>>model.intercept_     # 拟合的直线截距
-0.9033107255311164

可以发现,拟合出来的直线斜率和截距和前面样本数据定义(斜率2,截距-1)非常接近。

5、预测新数据的标签

模型训练出来以后,有监督学习的主要任务变成了对不属于训练集的新数据进行预测。用 predict() 方法进行预测。“新数据”是特征矩阵的 x 的坐标值,我么需要用模型预测出目标数组的 y 轴坐标:

xfit = np.linspace(-1, 11)   # 产生新数据,是特征矩阵的 x 的坐标值

将这些 x 值转换成[n_samples, n_features] 的特征矩阵形式,

Xfit = xfit[:, np.newaxis]   # 将数据转变为[n_samples, n_features] 的形式
yfit = model.predict(Xfit)   # 用模型预测目标数组的 y 轴坐标

然后,把原始数据和拟合结果都可视化出来:

plt.scatter(x, y)
plt.plot(xfit, yfit)

在这里插入图片描述

二、鸢尾花数据分类

问题示例:如何为鸢尾花数据集建立模型,先用一部分数据进行训练,再用模型预测出其他样本的标签?
下面使用高斯朴素贝叶斯方法完成任务。由于需要用模型之前没有接触过的数据评估它的训练效果,因此得先将数据分割成训练集和测试集。可以借助 train_test_split 函数分割很方便:
https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html

from sklearn.model_selection import train_test_split
xtrain, xtest, ytrain, ytest = train_test_split(x_iris,
									 y_iris, random_state=1)   # 对数据进行分类
from sklearn.naive_bayes import GaussianNB
model = GaussianNB()     # 初始化模型
model.fit(xtrain, ytrain)  # 用模型拟合数据
y_model = model.predict(xtest)   # 对新数据进行预测
from sklearn.metrics import accuracy_score
accuracy_score(ytest, y_model)  # 输出模型预测准确率
0.9736842105263158

理清楚一下上面程序的过程:

  1. 把数据集分类成 xtrain, xtest, ytrain, ytest
  2. 用训练集数据 xtrain, ytrain 来进行拟合
  3. 根据拟合的结果来对 xtest 数据进行预测
  4. 得出预测结果 y_model 和原来结果 y_test 的准确率

三、鸢尾花数据降维

PCA: https://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html
PCA.fit_transform : https://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html#sklearn.decomposition.PCA.fit_transform
sns.lmplot() : https://seaborn.pydata.org/generated/seaborn.lmplot.html

from sklearn.decomposition import PCA
model = PCA(n_components=2)   # 设置超参数,初始化模型
model.fit(x_iris)    # 拟合数据,这里不用y变量
x_2d = model.transform(x_iris)   # 将数据转化成二维
iris['PCA1'] = x_2d[:, 0]
iris['PCA2'] = x_2d[:, 1]
sns.lmplot('PCA1', 'PCA2', hue='species', data=iris, fit_reg=False)

在这里插入图片描述

四、鸢尾花数据分类

对鸢尾花数据进行聚类。聚类算法是对没有任何标签的数据集进行分组。
GaussianMixture: https://scikit-learn.org/stable/modules/generated/sklearn.mixture.GaussianMixture.html

from sklearn.mixture import GaussianMixture
model = GaussianMixture(n_components=3, covariance_type='full')
model.fit(x_iris)
y_gmm = model.predict(x_iris)
iris['cluster'] = y_gmm
sns.lmplot('PCA1', 'PCA2', hue='species', data=iris, col='cluster', fit_reg=False)

在这里插入图片描述
可以看出,第二幅图中的花的颜色还有一点混淆。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/140456.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • angular.Js_力量提供者

    angular.Js_力量提供者点击查看AngularJS系列目录转载请注明出处:http://www.cnblogs.com/leosx/每个Web应用程序都是有多个对象组合、协作来完成任务的。这些对象需要被实例化,并且连接在一

    2022年8月5日
    5
  • struts拦截器如何使用_信号拦截器

    struts拦截器如何使用_信号拦截器拦截器概述Struts2拦截器是在访问某个Action或Action的某个方法,字段之前或之后实施拦截,并且Struts2拦截器是可插拔的,拦截器是AOP(AspectOrientedProgramming,面向切面编程)的一种实现拦截器栈(InterceptorStack)。Struts2拦截器栈就是将拦截器按一定的顺序联结成一条链。在访问被拦截的方法或字段时,Struts2拦截器链

    2022年10月6日
    0
  • 产品是什么:PMF模型

    产品是什么:PMF模型一,产品是什么1.能够供给市场2.被人们使用和消费3.满足人们的某种需求需求是产品的基石二,PMF模型PMF(productmarketfit)产品和市场达到最佳的契合点,所提供的产品正好满足用户的需求,令客户满意。1.TargetCustomer目标用户:明确目标用户2.UnderservedNeeds目标用户未被满足的需求:需求分为已有需求,潜在需求,未来需求。分析用户属于哪种需求3.ValueProposition产品的价值定位:明确产品的价值定位,确定产品未用户

    2022年5月10日
    95
  • jlink烧录教程_自制flash烧录器

    jlink烧录教程_自制flash烧录器本文主要向大家介绍了Flash基础入门之J-Link固件烧录以及使用J-Flash向arm硬件板下载固件程序,通过具体的内容向大家展现,希望对大家学习Flash基础入门有所帮助。一、始于安装新版的MDK5.11a后,J-Link不能使用,提示安装新固件云云用新版本的STM32集成开发环境MDK5.11a(之前用的4.13a)链接J-Link下载程序,如果J-Link固件版本过低则点击J-Link设…

    2022年9月14日
    0
  • 古典概率c30怎么算_概率分为古典概率和什么概率

    古典概率c30怎么算_概率分为古典概率和什么概率》》点赞,收藏+关注,理财&技术不迷路《《目录:3.古典概率ClassicalProbability频率概率:古典概型:这个例子,n的区别就是指定和没有指定。后面365*364*******意思是每个人的生日都不一样,就是一个排列。题目要求的至少两人,它的对立面就是少于两人,那意思就是每一个人的生日都不一样。4.几何概率geometricprobability面积示例:思考下面这种问题方式,不用从几何导代数,要依靠几..

    2022年10月19日
    0
  • Hadoop与Spark等大数据框架介绍[通俗易懂]

    Hadoop与Spark等大数据框架介绍[通俗易懂]海量数据的存储问题很早就已经出现了,一些行业或者部门因为历史的积累,数据量也达到了一定的级别。很早以前,当一台电脑无法存储这么庞大的数据时,采用的解决方案是使用NFS(网络文件系统)将数据分开存储。但是这种方法无法充分利用多台计算机同时进行分析数据。一个实际的需求场景:日志分析日志分析是对日志中的每一个用户的流量进行汇总求和。对于一个日志文件,如果只有这么几行数据,我们一般会采用这…

    2022年4月28日
    41

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号