Pandas 拼接操作 数据处理
数据分析
生成器 迭代器 装饰器 (两层传参) 单例模式() ios七层 io多路
数据分析:是把隐藏在一些看似杂乱无章的数据背后的信息提炼出来,总结出所研究对象的内在规律
pandas的拼接操作
- pandas的拼接分为两种:
- 级联:pd.concat, pd.append
- 合并:pd.merge, pd.join
 
使用pd.concat()级联
pandas使用pd.concat函数,与np.concatenate函数类似,只是多了一些参数:
- objs
 axis=0
 join='outer' / 'inner':表示的是级联的方式,outer会将所有的项进行级联(忽略匹配和不匹配),而inner只会将匹配的项级联到一起,不匹配的不级联
 ignore_index=False
import pandas as pd
from pandas import Series,DataFrame
import numpy as np
- 1)匹配级联
# 创建数据料
df1 = DataFrame(data=np.random.randint(0,100,size=(3,3)),index=['a','b','c'],columns=['A','B','C'])
df2 = DataFrame(data=np.random.randint(0,100,size=(3,3)),index=['a','b','d'],columns=['A','B','D'])
# 显示两张表
display(df1,df2)
| A | B | C | |
|---|---|---|---|
| a | 67 | 93 | 7 | 
| b | 84 | 67 | 70 | 
| c | 85 | 93 | 7 | 
| A | B | D | |
|---|---|---|---|
| a | 0 | 61 | 32 | 
| b | 23 | 44 | 55 | 
| d | 99 | 25 | 76 | 
# 将两张表连接在一起
pd.concat([df1,df1],axis=0,join='inner',ignore_index=True)
- 2) 不匹配级联
- 不匹配指的是级联的维度的索引不一致。例如纵向级联时列索引不一致,横向级联时行索引不一致 - 有2种连接方式: - 外连接:补NaN(默认模式)
- 内连接:只连接匹配的项
 
# 连接两张不同的表
# 纵向连接 不匹配的 补空
pd.concat([df1,df2],axis=0)
# 纵向连接 内连接  只显示可以比配到的 数据
pd.concat([df1,df2],axis=0,join='inner')
- 3) 使用df.append()函数添加
由于在后面级联的使用非常普遍,因此有一个函数append专门用于在后面添加
df1.append(df2)
使用pd.merge()合并
- merge与concat的区别在于,merge需要依据某一共同的列来进行合并 - 使用pd.merge()合并时,会自动根据两者相同column名称的那一列,作为key来进行合并。 - 注意每一列元素的顺序不要求一致 - 参数: - how:out取并集 inner取交集 
- on:当有多列相同的时候,可以使用on来指定使用那一列进行合并,on的值为一个列表 
 
- 1) 一对一合并
df1 = DataFrame({'employee':['Bob','Jake','Lisa'],
                'group':['Accounting','Engineering','Engineering'],
                })
df2 = DataFrame({'employee':['Lisa','Bob','Jake'],
                'hire_date':[2004,2008,2012],
                })
# 数据合并
pd.merge(df1,df2)
    ```{'employee':['Lisa','Bob','Jake'],
     	'hire_date':[2004,2008,2012],
     	'group':['Accounting','Engineering','Engineering'],
    } ```
- 2) 多对一合并
df3 = DataFrame({
    'employee':['Lisa','Jake'],
    'group':['Accounting','Engineering'],
    'hire_date':[2004,2016]})
df4 = DataFrame({'group':['Accounting','Engineering','Engineering'],
                       'supervisor':['Carly','Guido','Steve']
                })
# 合并
pd.merge(df3,df4)
    {
        'employee':['Lisa','Jake','Jake'],
        'group':['Accounting','Engineering','Engineering'],
        'hire_date':[2004,2016,2016],
        'supervisor':['Carly','Guido','Steve']
    }
- 3) 多对多合并
df1 = DataFrame({'employee':['Bob','Jake','Lisa'],
                 'group':['Accounting','Engineering','Engineering']})
df5 = DataFrame({'group':['Engineering','Engineering','HR'],
                'supervisor':['Carly','Guido','Steve']
                })
pd.merge(df1,df5,how='right')  # how='right'/'lest'  以右 或 左 表的 内容为为准
- 加载excl数据:pd.read_excel('excl_path',sheetname=1)
pd.read_excel('data.xlsx',sheet_name=1)  # sheet_name=1 指定读取哪张表
- 4) key的规范化
- 当列冲突时,即有多个列名称相同时,需要使用on=来指定哪一个列作为key,配合suffixes指定冲突列名 
df1 = DataFrame({'employee':['Jack',"Summer","Steve"],
                 'group':['Accounting','Finance','Marketing']})
df2 = DataFrame({'employee':['Jack','Bob',"Jake"],
                 'hire_date':[2003,2009,2012],
                'group':['Accounting','sell','ceo']})
# 指定那个字段来进行连接
pd.merge(df1,df2,on='group')
- 当两张表没有可进行连接的列时,可使用left_on和right_on手动指定merge中左右两边的哪一列列作为连接的列
df1 = DataFrame({'employee':['Bobs','Linda','Bill'],
                'group':['Accounting','Product','Marketing'],
               'hire_date':[1998,2017,2018]})
df5 = DataFrame({'name':['Lisa','Bobs','Bill'],
                'hire_dates':[1998,2016,2007]})
pd.merge(df1,df5,left_on='employee',right_on='name')
- 自行练习多对一,多对多的情况
- 自学left_index,right_index
- 5) 内合并与外合并:out取并集 inner取交集- 内合并:只保留两者都有的key(默认模式)
 
df6 = DataFrame({'name':['Peter','Paul','Mary'],
               'food':['fish','beans','bread']}
               )
df7 = DataFrame({'name':['Mary','Joseph'],
                'drink':['wine','beer']})
-  外合并 how='outer':补NaN
df6 = DataFrame({'name':['Peter','Paul','Mary'],
               'food':['fish','beans','bread']}
               )
df7 = DataFrame({'name':['Mary','Joseph'],
                'drink':['wine','beer']})
pandas 数据处理-5
1. 删除重复元素
- 使用duplicated()函数检测重复的行,返回元素为布尔类型的Series对象,每个元素对应一行,如果该行不是第一次出现,则元素为True - keep参数:指定保留哪一重复的行数据
 
- 使用duplicated()- import numpy as np
 import pandas as pd
 from pandas import DataFrame #创建一个df
 df = DataFrame(data=np.random.randint(0,100,size=(10,6)))
 df.iloc[1] = [6,6,6,6,6,6]
 df.iloc[3] = [6,6,6,6,6,6]
 df.iloc[4] = [6,6,6,6,6,6] # 使用duplicated查看所有重复元素行
 # 查找重复的行 first,last 保留第一个 或最后一个
 df.duplicated(keep='first') # 使用 drop() 删除
 d_index = df.loc[df.duplicated(keep='first')].index
 df.drop(labels=d_index,axis=0)
 
- 使用 drop_duplicates(keep='last')- # 使用drop_duplicates()函数删除重复的行
 df.drop_duplicates(keep='last')
 
2.映射
1) replace()函数:替换元素
- 使用replace()函数,对values进行映射操作 - Series替换操作- 单值替换
- 普通替换
- 字典替换(推荐)
 
- 多值替换
- 列表替换
- 字典替换(推荐)
 
- 参数
- to_replace:被替换的元素
 
 - replace参数说明:- method:对指定的值使用相邻的值填充替换 
- limit:设定填充次数 
 - DataFrame替换操作- 单值替换
- 普通替换: 替换所有符合要求的元素:to_replace=15,value='e'
- 按列指定单值替换: to_replace={列标签:替换值} value='value'
 
- 多值替换
- 列表替换: to_replace=[] value=[]
- 字典替换(推荐) to_replace={to_replace:value,to_replace:value}
 
 - # 将数据中 所有的 6 替换为 333
 df.replace(to_replace=6,value=333) # 将数据中的 6, 9 替换为 333
 df.replace(to_replace=[6,9],value=333) # 将数据中的 0 替换为 zero
 df.replace(to_replace={0:'zero'}) # 指定列 替换 第 9 列的 3 替换为 666
 df.replace(to_replace={9:3},value=666)
 - 注意:DataFrame中,无法使用method和limit参数 
- 单值替换
2) map()函数:映射
 新建一列 , map函数并不是df的方法,而是series的方法
- map() 可以映射新一列数据 
- map() 中可以使用lambd表达式 
- map() 中可以使用方法,可以是自定义的方法 - eg:map({to_replace:value}) 
- 注意 map()中不能使用sum之类的函数,for循环 
- 新增一列:给df中,添加一列,该列的值为英文名对应的中文名 - # 数据
 dic = {
 'name':['Jay','Tom','Jay'],
 'salary':[7777,6666,7777]
 }
 df = DataFrame(data=dic) #指定一个映射关系表
 dic = {
 'Jay':'张三',
 'Tom':'李四'
 }
 df['c_name'] = df['name'].map(dic)
 - map当做一种运算工具,至于执行何种运算,是由map函数的参数决定的(参数:lambda,函数)- 使用自定义函数
 - #超过3000部分的钱缴纳50%的税
 def after_sal(s):
 if s <= 3000:
 return s
 else:
 return s - (s-3000)*0.5 df['after_sal'] = df['salary'].map(after_sal)
 - 注意:并不是任何形式的函数都可以作为map的参数。只有当一个函数具有一个参数且有返回值,那么该函数才可以作为map的参数
3.使用聚合操作
- 使用聚合操作 对数据异常值检测和过滤 - 使用df.std()函数可以求得DataFrame对象每一列的标准差 - 创建一个1000行3列的df 范围(0-1),求其每一列的标准差
 - df = DataFrame(np.random.random(size=(1000,3)),columns=['A','B','C'])
 df
 - # 对df应用筛选条件,去除标准差太大的数据:假设过滤条件为 C列数据大于两倍的C列标准差
 # 获取 C 列数据标准差
 c_st = df['C'].std()
 # 获取所有 大于 C 列数据 两倍的标准差的 数据
 indexs = df.loc[df['C'] > c_st * 2].index
 # 删除操作
 df.drop(labels=indexs,axis=0)
 
4. 排序
- 使用.take()函数排序- take()函数接受一个索引列表,用数字表示,使得df根据列表中索引的顺序进行排序
- eg:df.take([1,3,4,2,5])
 - np.random.permutation(x)可以生成x个从0-(x-1)的随机数列 - # 普通 排列 指定 隐式索引 对 A B C 排列
 df.take([2,0,1],axis=1)
 - 随机抽样- 当DataFrame规模足够大时,直接使用np.random.permutation(x)函数,就配合take()函数实现随机抽样 
 - df_ = df.take(np.random.permutation(1000),axis=0).take(np.random.permutation(3),axis=1)
 df_[0:100]
 
5. 数据分类处理【重点】
- 数据聚合是数据处理的最后一步,通常是要使每一个数组生成一个单一的数值。 - 数据分类处理:- 分组:先把数据分为几组
- 用函数处理:为不同组的数据应用不同的函数以转换数据
- 合并:把不同组得到的结果合并起来
 - 数据分类处理的核心:- groupby()函数
- groups属性查看分组情况
- eg: df.groupby(by='item').groups
 
1) 分组 groupby()
- 使用groupby实现分组
# 数据
from pandas import DataFrame,Series
df = DataFrame({'item':['Apple','Banana','Orange','Banana','Orange','Apple'],
                'price':[4,3,3,2.5,4,2],
               'color':['red','yellow','yellow','green','green','green'],
               'weight':[12,20,50,30,20,44]})
# 分组
df.groupby(by='item',axis=0)
- 使用groups查看分组情况
#该函数可以进行数据的分组,但是不显示分组情况
df.groupby(by='item',axis=0).groups
- 分组后的聚合操作:分组后的成员中可以被进行运算的值会进行运算,不能被运算的值不进行运算 
- 平均值 mean()
#给df创建一个新列,内容为各个水果的平均价格
# df.groupby(by='item').mean()
# df.groupby(by='item').mean()['price']
mean_price_s = df.groupby(by='item')['price'].mean()
dic = mean_price_s.to_dict()
# 使用映射添加到原表中
df['mean_price'] = df['item'].map(dic)
# 计算出苹果的平均价格
df.groupby(by='item')['price'].mean()['Apple']
6. 高级数据聚合
- 使用groupby分组后,也可以使用transform和apply提供自定义函数实现更多的运算- df.groupby('item')['price'].sum() <==> df.groupby('item')['price'].apply(sum)
- transform和apply都会进行运算,在transform或者apply中传入函数即可
- transform和apply也可以传入一个lambda表达式
 
def fun(s):
    sum = 0
    for i in s:
        sum+=i
    return sum/s.size
#使用apply函数求出水果的平均价格
# 不显示重复行
df.groupby(by='item')['price'].apply(fun)
#使用transform函数求出水果的平均价格
# 显示出每行的 平均值
df.groupby(by='item')['price'].transform(fun)
Pandas 拼接操作 数据处理的更多相关文章
- Pandas的拼接操作
		pandas的拼接操作 pandas的拼接分为两种: 级联:pd.concat, pd.append 合并:pd.merge, pd.join import pandas as pd import n ... 
- (四)pandas的拼接操作
		pandas的拼接操作 #重点 pandas的拼接分为两种: 级联:pd.concat, pd.append 合并:pd.merge, pd.join 0. 回顾numpy的级联 import num ... 
- pandas数据操作
		pandas数据操作 字符串方法 Series对象在其str属性中配备了一组字符串处理方法,可以很容易的应用到数组中的每个元素 t = pd.Series(['a_b_c_d','c_d_e',np. ... 
- Pandas 常见操作详解
		Pandas 常见操作详解 很多人有误解,总以为Pandas跟熊猫有点关系,跟gui叔创建Python一样觉得Pandas是某某奇葩程序员喜欢熊猫就以此命名,简单介绍一下,Pandas的命名来自于面板 ... 
- 【Python自动化Excel】Python与pandas字符串操作
		Python之所以能够成为流行的数据分析语言,有一部分原因在于其简洁易用的字符串处理能力. Python的字符串对象封装了很多开箱即用的内置方法,处理单个字符串时十分方便:对于Excel.csv等表格 ... 
- 深度学习实践-强化学习-bird游戏 1.np.stack(表示进行拼接操作) 2.cv2.resize(进行图像的压缩操作) 3.cv2.cvtColor(进行图片颜色的转换) 4.cv2.threshold(进行图片的二值化操作) 5.random.sample(样本的随机抽取)
		1. np.stack((x_t, x_t, x_t, x_t), axis=2) 将图片进行串接的操作,使得图片的维度为[80, 80, 4] 参数说明: (x_t, x_t, x_t, x_t) ... 
- JavaScript如何实现字符串拼接操作
		实际应用中,目标字符串的生成可能需要多个数据的拼接. 由于应用频繁,几乎是所有编程语言都必须掌握的操作,当然每种语言具有各自特点. 本文将通过代码实例详细介绍一下JavaScript如何实现字符串拼接 ... 
- 用Python的pandas框架操作Excel文件中的数据教程
		用Python的pandas框架操作Excel文件中的数据教程 本文的目的,是向您展示如何使用pandas 来执行一些常见的Excel任务.有些例子比较琐碎,但我觉得展示这些简单的东西与那些你可以在其 ... 
- 数据分析06 /pandas高级操作相关案例:人口案例分析、2012美国大选献金项目数据分析
		数据分析06 /pandas高级操作相关案例:人口案例分析.2012美国大选献金项目数据分析 目录 数据分析06 /pandas高级操作相关案例:人口案例分析.2012美国大选献金项目数据分析 1. ... 
随机推荐
- npm 相关命令
			npm的相关命令 npm init -y : 产生一个package.json文件 npm install --save-dev 模块名 : 模块名会再package.json文件中的d ... 
- [android] 内容观察者
			拦截短信,比如当发短信的时候,就把短信读取出来,当系统的短信发生变化的时候,大叫一声,把数据发送到公共的消息邮箱里面,我们的应用通过内容观察者观察公共的消息邮箱 获取ContentResolver对象 ... 
- 6.7 使用show profile 进行sql分析
			1. 查看是否开启 show variables like 'profiling'; 2. 开启功能 set profiling = on 3. 运行sql #写的尽量耗时的sql,利于分析 sele ... 
- JavaSE-基础语法(四)-javaSE进阶
			javaSE进阶 三.异常 四.多线程 五.Lambda表达式 六.IO流 七.网络编程 八.新特性 13.异常体系14.异常分类15.声明抛出捕获异常16.自定义异常17.线程概念18.线程同步19 ... 
- 怎么打开在.bashrc文件以及设置颜色
			打开/etc/bashrc,加入如下一行: alias ls="ls --color" 下次启动bash时就可以像在Slackware里那样显示彩色的目录列表了,其中不同颜 ... 
- Java中的强引用和弱引用
			旭日Follow_24 的CSDN 博客 ,全文地址请点击: https://blog.csdn.net/xuri24/article/details/81114944 一.强引用 如下是强引用的经典 ... 
- layui 弹窗的iframe 父子界面相互传值
			1.父界面向子界面传值 [1].父界面打开子界面: function show_layer(){ layer.open({ type: 2, area: [w+'px', h +'px'], fix: ... 
- [转]原生JS-查找相邻的元素-siblings方法的实现
			在针对element的操作里,查找附近的元素是一个不可少的过程,比如在实现tab时,其中的一个div增加了“on”class,其他的去除“on”class.如果用jquery的朋友就肯定不会陌生sib ... 
- Phaser.js之简单的跑酷游戏
			采用的物理引擎是Phaser.js 官网地址:http://phaser.io/ 在这里对此引擎不做过多介绍(因为我也是小白,嘿嘿) 效果展示: 源码(详细源码图片资源可点击文章下方或屏幕右上方的gi ... 
- 2018-11-09 VS Code英汉词典插件v0.0.4-驼峰下划线命名
			首先, 在两天时间内安装数破百, 多谢支持. VS Code插件市场地址: 英汉词典 - Visual Studio Marketplace 开源库地址同前文: Visual Studio Code插 ... 
