chart-7

chart-7

大家好,又见面了,我是全栈君。


  1. # -*- coding: utf-8 -*-
  2. """
  3. Created on Tue Feb 21 15:17:51 2017
  4. @author: zzpp220
  5. """
  6. '''合并(merge)-列或者连接(concat)-行数据集'''
  7. from pandas import DataFrame,Series
  8. from numpy import nan as NaN
  9. import pandas as pd
  10. import numpy as np
  11. import json
  12. df1=DataFrame({
    'left':list('bbacaab'),'data1':range(7)})
  13. df2=DataFrame({
    'right':list('abd'),'data2':range(3)})
  14. df12=pd.merge(df1,df2,left_on='left',right_on='right') ##分为内、外连接、像mysql 一样
  15. ##重塑和轴向旋转 stack: change col to row 和unstack:change row to col
  16. '''这个好!!该有的都由了'''
  17. df3=DataFrame(np.arange(6).reshape((2,3)),index=pd.Index(['sd','gz'],name='state'),columns=pd.Index(['one','two','thr'],name='number'))
  18. '''多重索引的Series和DataFrame可以通过stack,unstack相互转哈,默认情况下取的都是最内层的索引'''
  19. ##将列转为行,得到一个Series,索引是一个多重索引
  20. stack_df3=df3.stack()
  21. #对于一个层次化索引的Series ,可以用unstack 重排为DataFrame。
  22. stack_df3.unstack()
  23. '''
  24. df3.stack()
  25. Out[19]:
  26. state  number
  27. sd     one       0
  28.       two       1
  29.       thr       2
  30. gz     one       3
  31.       two       4
  32.       thr       5
  33. dtype: int64
  34. stack_df3.unstack()
  35. Out[22]:
  36. number  one  two  thr
  37. state                
  38. sd        0    1    2
  39. gz        3    4    5
  40. unstack and stack operate on the in-most level-index,also can operate on other level when give other para
  41. '''
  42. stack_df3.unstack('state')==stack_df3.unstack(0)## operate on the out-most level the same as :
  43. ''''stack_df3.unstack() 默认是按最内层也就是’number‘
  44. Out[22]:
  45. number  one  two  thr
  46. state                
  47. sd        0    1    2
  48. gz        3    4    5
  49.                    stack_df3.unstack('state')==stack_df3.unstack(0)
  50.                    Out[25]:
  51.                    state     sd    gz
  52.                    number            
  53.                    one     True  True
  54.                    two     True  True
  55.                    thr     True  True
  56. '''
  57. '''对全部的营养数据做分析'''
  58. db=json.load(open('/media/zzpp220/Data/Linux_Documents/DOWNLOAD/python-DataAnalysis/pydata-book-master/ch07/foods-2011-10-03.json'))
  59. nutrients=DataFrame(db[0]['nutrients'])
  60. '''
  61. nutrients[:10]
  62. Out[36]:
  63.                   description        group units    value
  64. 0                      Protein  Composition     g    25.18
  65. 1            Total lipid (fat)  Composition     g    29.20
  66. 2  Carbohydrate, by difference  Composition     g     3.06
  67. 3                          Ash        Other     g     3.28
  68. 4                       Energy       Energy  kcal   376.00
  69. 5                        Water  Composition     g    39.28
  70. 6                       Energy       Energy    kJ  1573.00
  71. 7         Fiber, total dietary  Composition     g     0.00
  72. 8                  Calcium, Ca     Elements    mg   673.00
  73. 9                     Iron, Fe     Elements    mg     0.64
  74. '''
  75. info_keys=['description','group','id','manufacturer']
  76. info=DataFrame(db,columns=info_keys)##仅仅导入db中的info_keys中的字段,其他的就不导入了; 
  77. info[:5]
  78. '''查看食物类别的分布情况'''
  79. #info.group.value_counts()[:10]#查看group中的分布情况==pd.values_count(info.group)
  80. '''将所有的食物的营养成分整合到一个大表中'''
  81. nutrients=[]
  82. for rec in db:
  83.    fnuts=DataFrame(rec['nutrients'])##将各食物的营养成分整合到一个大表
  84.    fnuts['id']=rec['id']#并且在表中添加一个表示编号的列,用原来的表中的值赋值
  85.    nutrients.append(fnuts)#依次将DataFrame添加到大的list中
  86. nutrients=pd.concat(nutrients,ignore_index=True)##用concat连接起来大表
  87. '''查看表中有多少重复项'''
  88. nutrients.duplicated().sum()
  89. '''丢弃重复项'''
  90. nutrients.drop_duplicates()
  91. '''重命名对象中的列名(因为二者有相同的列,可能会混淆)'''
  92. col_mapping={
    'description':'food','group':'fgroup'}
  93. info=info.rename(columns=col_mapping,copy=False)
  94. '''
  95. info.rename(columns=col_mapping,copy=False)[:3]
  96. Out[50]:
  97.              food                  fgroup    id manufacturer
  98. 0  Cheese, caraway  Dairy and Egg Products  1008            
  99. 1  Cheese, cheddar  Dairy and Egg Products  1009            
  100. 2     Cheese, edam  Dairy and Egg Products  1018
  101. '''
  102. col_mapping={
    'description':'nutrients','group':'nutgroup'}
  103. nutrients=nutrients.rename(columns=col_mapping,copy=False)
  104. '''合并info和nutrients'''
  105. ndata=pd.merge(nutrients,info,on='id',how='outer')
  106. '''根据营养分类,得出锌的中位值'''
  107. result=ndata.groupby(['nutrients','fgroup'])['value'].quantile(0.5)

转载于:https://www.cnblogs.com/zzxx-myblog/p/6481284.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/108645.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 开发的浏览器颠覆微软,引爆了一场互联网大战

    开发的浏览器颠覆微软,引爆了一场互联网大战

    2021年9月15日
    68
  • 三大分析法——SWOT、PEST、波特五力

    三大分析法——SWOT、PEST、波特五力SWOT分析法「SWOT分析模型简介」(也称TOWS分析法、道斯矩阵)。在现在的战略规划报告里,SWOT分析应该算是一个众所周知的工具。来自于麦肯锡咨询公司的SWOT分析,包括分析企业的优势(Strengths)、劣势(Weaknesses)、机会(Opportunities)和威胁(Threats)。因此,SWOT分析实际上是将对企业内外部条件各方面内容进行综合和概括,进而分析组织的优劣势、面临的机会和威胁的一种方法。通过SWOT分析,可以帮助企业把资源和行动聚集在自己的强项和有最多机会的地方

    2022年5月1日
    57
  • ssm框架过时了吗_spring实战

    ssm框架过时了吗_spring实战SpringSpring是一个开源的免费的框架Spring是一个轻量级的,非入侵式的框架控制反转(IOC),面向切面编程(AOP)支持事务的处理,对框架整合的支持IOC理论UserDaoUserDaoImpUserSeviceUserServiceImp在之前,用户的需求可能会影响原来的代码。使用一个set。public void setUserDao(UserDao userDao){ this.userDao = userDao;}之前是主动创建对象,控制

    2022年8月8日
    4
  • vim查找高亮关键字_emacs和vim

    vim查找高亮关键字_emacs和vim如果我们在在打开的文件中使用Vim搜索功能并开启搜索高亮显示后怎么取消当前高亮显示搜索关键字呢?vim搜索高亮关键字如何取消,vim清除查询高亮搜索显示的方法下面站长为大家介绍vim搜索高亮关键字怎么取消,vim查询高亮搜索显示如果清除取消第一种方法:vim搜索高亮关键字怎么取消最简单的方法是再使用Vim搜索一个在文档中不存在的搜索关键词来覆盖当前高亮显示的搜索结果。第二种方法:vim查询高亮搜索…

    2022年9月23日
    4
  • 基本图形算法指南

    基本图形算法指南

    2022年1月5日
    49
  • Springboot将项目打成jar包

    Springboot将项目打成jar包1、在Maven项目中添加依赖<build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot…

    2022年6月13日
    30

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号