python的数据处理_基于python的数据处理

python的数据处理_基于python的数据处理源起:1.我要做交叉验证,需要每个训练集和测试集都保持相同的样本分布比例,直接用sklearn提供的KFold并不能满足这个需求。2.将生成的交叉验证数据集保存成CSV文件,而不是直接用sklearn训练分类模型。3.在编码过程中有一的误区需要注意:这个sklearn官方给出的文档>>>importnumpyasnp>>>fromsklearn.mo…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

源起:

1.我要做交叉验证,需要每个训练集和测试集都保持相同的样本分布比例,直接用sklearn提供的KFold并不能满足这个需求。

2.将生成的交叉验证数据集保存成CSV文件,而不是直接用sklearn训练分类模型。

3.在编码过程中有一的误区需要注意:

这个sklearn官方给出的文档>>> import numpy as np

>>> from sklearn.model_selection import KFold

>>> X = [“a”, “b”, “c”, “d”]

>>> kf = KFold(n_splits=2)

>>> for train, test in kf.split(X):

… print(“%s %s” % (train, test))

[2 3] [0 1]

[0 1] [2 3]

我之前犯的一个错误是将train,test理解成原数据集分割成子数据集之后的子数据集索引。而实际上,它就是原始数据集本身的样本索引。

源码:# -*- coding:utf-8 -*-

# 得到交叉验证数据集,保存成CSV文件

# 输入是一个包含正常恶意标签的完整数据集,在读数据的时候分开保存到datasetBenign,datasetMalicious

# 分别对两个数据集进行KFold,最后合并保存

from sklearn.model_selection import KFold

import csv

def writeInFile(benignKFTrain, benignKFTest, maliciousKFTrain, maliciousKFTest, i, datasetBenign, datasetMalicious):

newTrainFilePath = “E:\\hadoopExperimentResult\\5KFold\\AllDataSetIIR10\\dataset\\ImbalancedAllTraffic-train-%s.csv” % i

newTestFilePath = “E:\\hadoopExperimentResult\\5KFold\\AllDataSetIIR10\\dataset\\IImbalancedAllTraffic-test-%s.csv” % i

newTrainFile = open(newTrainFilePath, “wb”)# wb 为防止空行

newTestFile = open(newTestFilePath, “wb”)

writerTrain = csv.writer(newTrainFile)

writerTest = csv.writer(newTestFile)

for index in benignKFTrain:

writerTrain.writerow(datasetBenign[index])

for index in benignKFTest:

writerTest.writerow(datasetBenign[index])

for index in maliciousKFTrain:

writerTrain.writerow(datasetMalicious[index])

for index in maliciousKFTest:

writerTest.writerow(datasetMalicious[index])

newTrainFile.close()

newTestFile.close()

def getKFoldDataSet(datasetPath):

# CSV读取文件

# 开始从文件中读取全部的数据集

datasetFile = file(datasetPath, ‘rb’)

datasetBenign = []

datasetMalicious = []

readerDataset = csv.reader(datasetFile)

for line in readerDataset:

if len(line) > 1:

curLine = []

curLine.append(float(line[0]))

curLine.append(float(line[1]))

curLine.append(float(line[2]))

curLine.append(float(line[3]))

curLine.append(float(line[4]))

curLine.append(float(line[5]))

curLine.append(float(line[6]))

curLine.append(line[7])

if line[7] == “benign”:

datasetBenign.append(curLine)

else:

datasetMalicious.append(curLine)

# 交叉验证分割数据集

K = 5

kf = KFold(n_splits=K)

benignKFTrain = []; benignKFTest = []

for train,test in kf.split(datasetBenign):

benignKFTrain.append(train)

benignKFTest.append(test)

maliciousKFTrain=[]; maliciousKFTest=[]

for train,test in kf.split(datasetMalicious):

maliciousKFTrain.append(train)

maliciousKFTest.append(test)

for i in range(K):

print “======================== “+ str(i)+ ” ========================”

print benignKFTrain[i], benignKFTest[i]

print maliciousKFTrain[i],maliciousKFTest[i]

writeInFile(benignKFTrain[i], benignKFTest[i], maliciousKFTrain[i], maliciousKFTest[i], i, datasetBenign,

datasetMalicious)

datasetFile.close()

if __name__ == “__main__”:

getKFoldDataSet(r”E:\hadoopExperimentResult\5KFold\AllDataSetIIR10\dataset\ImbalancedAllTraffic-10.csv”)

END

f2dbd1f4babcefba6c001b09292a3be8.png

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/193725.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 行内元素和块级元素

    行内元素和块级元素

    2022年3月13日
    32
  • NGINX.conf配置文件支持pathinfo

    NGINX.conf配置文件支持pathinfo

    2021年11月6日
    45
  • sql中declare声明变量_sql怎么定义变量

    sql中declare声明变量_sql怎么定义变量一、变量的分类及特点1、变量的分类总体可以分为两大类:系统变量和用户自定义变量系统变量:包括全局变量和会话变量自定义变量:包括局部变量和用户用户变量2、变量的特点:1、系统变量的特点:(1)、每个客户机成功连接服务器后,都会产生与之对应的会话。会话期间,服务实例会在服务器内存中生成与该会话对应的会话系统变量。这些会话系统变量的初始值都是全局系统变量值的复制,有了标记不同的会话,会话系统又新增了一些变量,这些变量是全局扁郎没有…

    2022年8月20日
    15
  • oracle中schema指的是什么?

    oracle中schema指的是什么?

    2021年11月13日
    68
  • maven 项目打jar包 并包含所有依赖「建议收藏」

    maven 项目打jar包 并包含所有依赖「建议收藏」背景:基于最近项目部署,需要打jar包,然后涉及接口调用,反复测试,出现了各种问题,最后找到合理方案,特做以下总结:一、延伸知识:Springboot打jar包命令1.把之前打过的包通通干掉mvnpackageclean-Dmaven.test.skip=true2.重新打包mvnpackage-Dmaven.test.skip=true3.Springboot的打包插件<build><plugins>&

    2022年6月19日
    83
  • python机器学习库xgboost——xgboost算法

    python机器学习库xgboost——xgboost算法全栈工程师开发手册(作者:栾鹏)python数据挖掘系列教程安装xgboost目前还不能pip在线安装,所以先在网址https://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost中下载whl文件,然后参考https://blog.csdn.net/luanpeng825485697/article/details/7781…

    2022年4月29日
    41

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号