pandas入门

统计分析是数据分析的重要组成部分,它几乎贯穿整个数据分析的流程。运用统计方法,将定量与定性结合,进行的研究活动叫做统计分析。而pandas是统计分析的重要库。

1.pandas数据结构

    在pandas中,有两个常用的数据结构:Series和Dataframe  为大多数应用提供了一个有效、易用的基础。

    1.Series:Series是一种一维的数组型对象,它包含一个值序列,并含有数据标签。

 import pandas as pd
ser1 = pd.Series([1,2,3,4])
print(ser1)
print(ser1.index) #ser1的索引
print(ser1.values) #ser1的值
ser2= pd.Series([1,2,3,4],index=['a','b','c','d']) #自己设置索引
print(ser2['a']) #获得索引为a的值
print(ser2[['a','b','c']])#获取多个索引值\
#Series对象自身和其索引都有name属性,
ser2.name ="p"
ser2.index.name = 'state'
print(ser2)

    2.DataFrame:表示的是矩阵的数据表,它包含已排序的列集合,每一个可以是不同的值类型(数值、字符串、布尔值)。DataFrame既有行索引又有列索引。最常用的就是利用包含等长度的列表或numpy数据的字典来形成DataFrame

 import pandas as pd
import numpy as np
data ={'state':['a','a','a','b','b','b'],
"year":[2000,2001,2002,2001,2002,2003],
"pop":[1.5,1.7,3.6,2.4,2.9,3.2]}
df1 = pd.DataFrame(data)
print(df1)
df2 = pd.DataFrame(data,columns=['year','state','pop'],index=["one","two","three","four","five","six"]) #自己设置列名
print(df2.columns)
print(df2['year']) #获取year列值
print(df2.year)
print(df2.loc["one"]) #获取one行值
df2['debt'] = np.arange(6)
print(df2)

    3.使用loc和iloc选择数据

      loc方法是针对DataFrame索引名称的切片方法,如果传入的不是索引名称,那么切片操作无法执行。利用loc方法,能够实现所有单层索引切片操作。

      loc使用方法:DataFrame.loc[行索引名称或条件,列索引名称,如果内部传递的是一个区间,则左闭右开。loc内部可以出入表达式,返回布尔值的series

      iloc和loc的区别是,iloc接受的必须是行索引和列索引的位置。iloc方法的使用,DataFrame.ilo[行索引位置,列索引位置],传递是区间,左闭右闭

    

 import pandas as pd
import numpy as np
data ={'state':['a','a','a','b','b','b'],
"year":[2000,2001,2002,2001,2002,2003],
"pop":[1.5,1.7,3.6,2.4,2.9,3.2]}
df2 = pd.DataFrame(data,columns=['year','state','pop'],
index=["one","two","three","four","five","six"])
print(df2['year']) #从DataFrame中选择单列或列序列
print(df2.loc["one"]) #从DataFrame中选择单行或多行
print(df2.loc[:,"year"]) #从DataFrame中选择单列
print(df2.loc["one","year"]) #同时确定行和列
print(df2.loc["one",['year','state']]) #一行两列
print(df2.loc["condition",[]]) #loc 可以接受表达式
print(df2.iloc[1]) #选取单行
print(df2.iloc[:,[2,3]]) #选取索引为第2,3列
# print(df2.ilov[where_i,where_j][condition])
df2.iloc[condition,[]].values #iloc方法不能接受表达式,条件返回的是一个Series,取出Series的值
 import numpy as np
import pandas as pd
df4 = pd.DataFrame(np.arange(8).reshape(2,4),index=["three","one"],columns=["d","a","b","c"])
print(df4.sort_index(axis=1,ascending=False)) #反序
print(df4.sort_values(by='b')) #根据b列数值排序
print(df4.sort_values(by=['a','b']))
df5 = pd.Series([7,-5,7,4,2,0,4])
print(df5.rank())
print(df5.rank(method='first')) #按照值在数据中出现的次序分配排名

      4.删除某列或某行的数据

      DataFrame.drop(label,axis=0,level=None,inplace=False)

      label:表示要删除的数据。axis:表示要操作的轴,inplace:表示操作是否对原数据生效

2.描述性统计分析

    描述性统计是用来概括、表述事物的整体状况,以及事物间关联、类属关系的统计方法。通过几个统计值可简捷地表达地表示一组数据的集中趋势和离散程度。

    1.数值型特征的描述性统计

    数值型特征的描述性统计主要包括了计算数值型数据的完整情况、最小值、均值、中位数、最大值、四分位数、极差、标准差、方差、协方差和变异系数。

    min:最小值

    max:最大值

    mean:平均值

    ptp:极差

    median:中位数

    std:标准差

    var:方差

    cov:协方差

    corr:相关性

    mod:众数

    skew:样本偏度

    kurt:样本峰度

    quantile:四分位数

    count:非空值数目

    mad:平均绝对离差

    describe:计算Series或DataFrame各列的汇总统计集合

    pct_change:计算百分比

    2.类别型数据的描述性统计

    描述类别型特征的分布状况,可以使用频数统计表

    value_count:返回一个Series,索引是唯一值序列,值是计数个数,按照个数降序排序

 
  1 import pandas_datareader.data as web
2 tickers =['AAPL',"IBM","GOOG"]
3 all_data = {ticker:web.get_data_yahoo(ticker) for ticker in tickers}
4 price = pd.DataFrame({ticker:data['Adj Close'] for ticker,data in all_data.items()})
5 volums = pd.DataFrame({ticker:data['Volume'] for ticker,data in all_data.items()})
6 returns = price.pct_change()
7 print(returns.tail())
8 print(returns['AAPL'].corr(returns['IBM']))
9 print(returns.corr()) #计算相关性
10 print(returns.cov()) #计算协整性
11 print(returns.corrwith(volums))

3.数据分析中的分组聚合、转化操作

    1.使用groupby方法分组

    DataFrame.groupby(by=None,axis=0,level=None,as_index=True,sort=True,group_by=True,squeeze=False,**ksargs)

    

 import pandas as pd
df = pd.DataFrame({'key1':["a","a","b","b","a"],
"key2":["one","two","one","two","one"],
"data1":np.random.randn(5),
"data2":np.random.randn(5)})
print(df)
# group = df['data1'].groupby(df['key1']) #对data1列进行分组,获得一个group对象
# group= df.groupby(df['key1'])['data1'] #两个等价
group = df.groupby(df['key1']) #对整个DataFrame分组
print(group.count()) #返回分组的数目
print(group.head()) #返回每组的前几个值
print(group.max()) #返回每组的最大值
print(group.mean()) #返回每组的均值
print(group.median()) #返回每组的中位数
print(group.cumcount()) #对每个分组中的成员进行标记
print(group.size()) #返回每个分组的大小
print(group.min()) #返回每个分组的最小值
print(group.std()) #返回每组的标准差
print(group.sum()) #返回每组的和
group2 = df['data1'].groupby([df['key1'],df['key2']]) #根据key1,key2分组

    2.使用agg和aggregate方法聚合,能够将函数应用于每一列

    DataFrame.agg(func,axis=0,*args,**kwargs)

    DataFrame.aggregate(func,axis=0,*args,**kwargs)

    

 import pandas as pd
df = pd.DataFrame({'key1':["a","a","b","b","a"],
"key2":["one","two","one","two","one"],
"data1":np.random.randn(5),
"data2":np.random.randn(5)})
group = df['data1'].groupby(df['key1']) #对data1列进行分组,获得一个group对象
group= df.groupby(df['key1'])['data1'] #两个等价
group = df.groupby(df['key1']) #对整个DataFrame分组
print(group.count()) #返回分组的数目
print(group.head()) #返回每组的前几个值
print(group.max()) #返回每组的最大值
print(group.mean()) #返回每组的均值
print(group.median()) #返回每组的中位数
print(group.cumcount()) #对每个分组中的成员进行标记
print(group.size()) #返回每个分组的大小
print(group.min()) #返回每个分组的最小值
print(group.std()) #返回每组的标准差
print(group.sum()) #返回每组的和
print(group.quantile(0.9)) #返回每组的分位数
group2 = df['data1'].groupby([df['key1'],df['key2']]) #根据key1,key2分组
print(group.agg(np.mean)) #返回均值
def f(x):
return x.max()-x.min()
print(group.agg(f)) #使用自定义函数
group3 = df.groupby(df["key1"])
print(group3.agg({"data1":np.mean,"data2":np.max})) #对data1 和 data2分别操作

    3.使用apply方法聚合,apply方法类似于agg方法,能够将函数应用于每一列。不同之处在于,与agg方法相比,apply方法传入的函数只能作用于这个DataFrame或Series,而无法像agg一样能够对不同字段函数使用不同函数来获取不同结果。

    DataFrame.apply(func,axis=0,broadcast=False,raw=False,reduce=None,args=(),**kwds)

    

 
import pandas as pd
df = pd.DataFrame({'key1':["a","a","b","b","a"],
"key2":["one","two","one","two","one"],
"data1":np.random.randn(5),
"data2":np.random.randn(5)})
group = df['data1'].groupby(df['key1']) #对data1列进行分组,获得一个group对象
# group= df.groupby(df['key1'])['data1'] #两个等价
group = df.groupby(df['key1']) #对整个DataFrame分组
print(group.count()) #返回分组的数目
print(group.head()) #返回每组的前几个值
print(group.max()) #返回每组的最大值
print(group.mean()) #返回每组的均值
print(group.median()) #返回每组的中位数
print(group.cumcount()) #对每个分组中的成员进行标记
print(group.size()) #返回每个分组的大小
print(group.min()) #返回每个分组的最小值
print(group.std()) #返回每组的标准差
print(group.sum()) #返回每组的和
print(group.quantile(0.9)) #返回每组的分位数
group2 = df['data1'].groupby([df['key1'],df['key2']]) #根据key1,key2分组
print(group.agg(np.mean)) #返回均值
def f(x):
return x.max()-x.min()
print(group.agg(f)) #使用自定义函数
group3 = df.groupby(df["key1"])
print(group3.agg({"data1":np.mean,"data2":np.max})) #对data1 和 data2分别操作
print(group3[["data1","data2"]].apply(lambda x:(x.mean()-x.min())/(x.max()-x.min())))#使用自定义函数

    4.使用transform方法聚合

    transform方法能够对整个DataFrame的所有元素进行操作,transform只有一个函数"func

4.创建透视表和交叉表

    1.使用pivot_table函数制作透视表

    pandas.pivot_table(data,values=None,index=None,columns=None,aggfunc="mean",fill_value=None,margins=False,dropna=True,margins_name="all")

    index:表示行分组键,clolums:表示列分组键 func:聚合函数 fill_value :对缺失值进行填充

    

l = pd.pivot_table(df[["key1",'data1',"data2"]],index="key1")
print(l)

    2.使用crosstab函数创建交叉表

    pandas.crosstab(index,columns,values=None,rownames=None,colnames=None,aggfunc=None,margins=False,dropna=True,normalise=False)

    index:行索引键 columns:列索引键,value:聚合数据  rownames:行分组键,colnames:列分组键 aggfunc:聚合函数

l2 = pd.crosstab(index=df["key1"],columns=df["key2"],values=df["data1"],aggfunc=np.sum)
print(l2)

我的Python分析成长之路9的更多相关文章

  1. 我的Python分析成长之路7

    类 一.编程范式: 1.函数式编程   def 2.面向过程编程   (Procedural Programming) 基本设计思路就是程序一开始是要着手解决一个大的问题,然后把一个大问题分解成很多个 ...

  2. 我的Python分析成长之路6

    模块:本质就是.py结尾的文件.从逻辑上组织python代码. 包: 本质就是一个目录,带有__init__.py文件,从逻辑上组织模块. 模块的分类: 1.标准库(内置的模块) 2.开源库(第三方库 ...

  3. 我的Python分析成长之路10

    matplot数据可视化基础 制作提供信息的可视化(有时称作绘图)是数据分析中最重要任务之一. 1.图片(画布)与子图 plt.figure :创建一张空白的图片,可以指定图片的大小.像素. figu ...

  4. 我的Python分析成长之路8

    Numpy数值计算基础 Numpy:是Numerical Python的简称,它是目前Python数值计算中最为基础的工具包,Numpy是用于数值科学计算的基础模块,不但能够完成科学计算的任而且能够用 ...

  5. 我的Python分析成长之路11

    数据预处理 如何对数据进行预处理,提高数据质量,是数据分析中重要的问题. 1.数据合并 堆叠合并数据,堆叠就是简单地把两个表拼在一起,也被称为轴向链接,绑定或连接.依照轴的方向,数据堆叠可分为横向堆叠 ...

  6. 我的Python分析成长之路2

    2018-12-29 一.python数据类型: 1.数字 int(整形) float(浮点型) complex(复数型) 2.布尔值(bool)     真或假 True or False 3.字符 ...

  7. 我的Python分析成长之路1

    Python是什么?                                                                                           ...

  8. 我的Python分析成长之路5

    一.装饰器: 本质是函数,装饰其他函数,为其他函数添加附加功能. 原则: 1.不能修改被装饰函数的源代码. 2.不能修改被装饰函数的调用方式. 装饰器用到的知识: 1.函数即变量   (把函数体赋值给 ...

  9. 我的Python分析成长之路4

    一.函数 1.什么是函数?:函数是带名字的代码块,调用函数,只要调用函数名就可以.    2.函数的性质:1.减少重复代码 2.使程序变得可扩展 3.使程序变得易维护 3.编程范示: 1.面向对象编程 ...

随机推荐

  1. JS创建函数的方法

    方法一:函数声明. function foo(){ } 方法二:函数表达式. var foo=function(){ } 另外还有一种自执行函数表达式.主要用于创建一个新的作用域,在此作用域内声明的变 ...

  2. 转:php中的匿名函数和闭包(closure)

    一:匿名函数 (在php5.3.0 或以上才能使用) php中的匿名函数(Anonymous functions), 也叫闭包函数(closures), 允许指定一个没有名称的函数.最常用的就是回调函 ...

  3. 满足java对redis的所有操作,token,验证码过期时间等

    很实用 链接在此  https://www.cnblogs.com/edisonfeng/p/3571870.html System.out.println("=============== ...

  4. TI德州芯片TLV系列和TPS系列芯片区别(转)

    TLV和TPS一般会有pin to pin的对应型号: 一般来讲,TPS精度.准确度和性能会好一些,所以价钱要贵一些: 对应TLV就是一样可以实现上述功能,但是精度和性能等级是稍微低一点的: 具体选择 ...

  5. BundleConfig包含js,css失败

    今天在做mvc项目的时候,引入了bootstrap样式.但是包含css和js的时候出错了 于是我查阅资料,好多人都说后缀名前面不能包含".",于是我把min前面的".&q ...

  6. centos 7下Hadoop 2.7.2 伪分布式安装

    centos 7 下Hadoop 2.7.2 伪分布式安装,安装jdk,免密匙登录,配置mapreduce,配置YARN.详细步骤如下: 1.0 安装JDK 1.1 查看是否安装了openjdk [l ...

  7. Glide图片框架

    //加载圆形图片Glide.with(this).load(WSCAppStatic.WEB_KEFU_PHOTO_URL+ "?usercode=8120000315") .as ...

  8. Android Studio中通过CMake使用NDK并编译自定义库和添加预编译库

    Note:这篇文章是基于Android Studio 3.01版本的,NDK是R16. step1:创建一个包含C++的项目 其他默认就可以了. C++ Standard 指定编译库的环境,其中Too ...

  9. 使用ABAP编程实现对微软Office Word文档的操作

    SAP ABAP里提供了一个标准的类CL_DOCX_DOCUMENT,提供了本地以".docx"结尾的微软Office word文档的读和写操作. 本文介绍了ABAP类CL_DOC ...

  10. adhoc无法下载应用程序 此时无法安装-解决

    解决方法 点击xcode,进入build setting,选择code signing,provisioning profile选择automatic 或者选择adhoc的provisioning p ...