pandas的级联操作
级联操作
- pd.concat, pd.append
import pandas as pd
from pandas import DataFrame
import numpy as np
pandas使用pd.concat函数,与np.concatenate函数类似,只是多了一些参数:
objs
axis=0
keys
join='outer' / 'inner':表示的是级联的方式,outer会将所有的项进行级联(忽略匹配和不匹配),而inner只会将匹配的项级联到一起,不匹配的不级联
ignore_index=False
- 匹配级联
df1 = DataFrame({'employee':['Bobs','Linda','Bill'],
'group':['Accounting','Product','Marketing'],
'hire_date':[1998,2017,2018]})
df1
| employee | group | hire_date | |
|---|---|---|---|
| 0 | Bobs | Accounting | 1998 |
| 1 | Linda | Product | 2017 |
| 2 | Bill | Marketing | 2018 |
pd.concat((df1,df1),axis=0)
| employee | group | hire_date | |
|---|---|---|---|
| 0 | Bobs | Accounting | 1998 |
| 1 | Linda | Product | 2017 |
| 2 | Bill | Marketing | 2018 |
| 0 | Bobs | Accounting | 1998 |
| 1 | Linda | Product | 2017 |
| 2 | Bill | Marketing | 2018 |
- 不匹配级联
- 不匹配指的是级联的维度的索引不一致。例如纵向级联时列索引不一致,横向级联时行索引不一致
- 有2种连接方式:
- 外连接:补NaN(默认模式)
- 内连接:只连接匹配的项
df2 = df1.copy()
df2.columns = ['employee','groupps','hire_date']
df2
| employee | groupps | hire_date | |
|---|---|---|---|
| 0 | Bobs | Accounting | 1998 |
| 1 | Linda | Product | 2017 |
| 2 | Bill | Marketing | 2018 |
pd.concat((df1,df2),axis=0)
# 按列级联,发现不同列就加在表中,用NaN补全空的字段
| employee | group | groupps | hire_date | |
|---|---|---|---|---|
| 0 | Bobs | Accounting | NaN | 1998 |
| 1 | Linda | Product | NaN | 2017 |
| 2 | Bill | Marketing | NaN | 2018 |
| 0 | Bobs | NaN | Accounting | 1998 |
| 1 | Linda | NaN | Product | 2017 |
| 2 | Bill | NaN | Marketing | 2018 |
- join:
- inner:只对可以匹配的项进行级联
- outer:可以级联所有的项
pd.concat((df1,df2),axis=0,join='inner')
| employee | hire_date | |
|---|---|---|
| 0 | Bobs | 1998 |
| 1 | Linda | 2017 |
| 2 | Bill | 2018 |
| 0 | Bobs | 1998 |
| 1 | Linda | 2017 |
| 2 | Bill | 2018 |
append函数的使用: append只可以进行纵向的级联
employee group groupps hire_date 0 Bobs Accounting NaN 1998 1 Linda Product NaN 2017 2 Bill Marketing NaN 2018 0 Bobs NaN Accounting 1998 1 Linda NaN Product 2017 2 Bill NaN Marketing 2018
合并操作
merge与concat的区别在于,merge需要依据某一共同列来进行合并
使用pd.merge()合并时,会自动根据两者相同column名称的那一列,作为key来进行合并。
注意每一列元素的顺序不要求一致
一对一合并
df1 = DataFrame({'employee':['Bob','Jake','Lisa'],
'group':['Accounting','Engineering','Engineering'],
})
df1
| employee | group | |
|---|---|---|
| 0 | Bob | Accounting |
| 1 | Jake | Engineering |
| 2 | Lisa | Engineering |
df2 = DataFrame({'employee':['Lisa','Bob','Jake'],
'hire_date':[2004,2008,2012],
})
df2
| employee | hire_date | |
|---|---|---|
| 0 | Lisa | 2004 |
| 1 | Bob | 2008 |
| 2 | Jake | 2012 |
pd.merge(df1,df2,on='employee')
| employee | group | hire_date | |
|---|---|---|---|
| 0 | Bob | Accounting | 2008 |
| 1 | Jake | Engineering | 2012 |
| 2 | Lisa | Engineering | 2004 |
一对多合并
df3 = DataFrame({
'employee':['Lisa','Jake'],
'group':['Accounting','Engineering'],
'hire_date':[2004,2016]})
df
| employee | group | hire_date | |
|---|---|---|---|
| 0 | Lisa | Accounting | 2004 |
| 1 | Jake | Engineering | 2016 |
df4 = DataFrame({'group':['Accounting','Engineering','Engineering'],
'supervisor':['Carly','Guido','Steve']
})
df4
| group | supervisor | |
|---|---|---|
| 0 | Accounting | Carly |
| 1 | Engineering | Guido |
| 2 | Engineering | Steve |
pd.merge(df3,df4)
# 会默认以两个表的共同字段 group 进行关联,将两张表中的全部数据进行合并
| employee | group | hire_date | supervisor | |
|---|---|---|---|---|
| 0 | Lisa | Accounting | 2004 | Carly |
| 1 | Jake | Engineering | 2016 | Guido |
| 2 | Jake | Engineering | 2016 | Steve |
多对多合并
df1 = DataFrame({'employee':['Bob','Jake','Lisa'],
'group':['Accounting','Engineering','Engineering']})
df1
| employee | group | |
|---|---|---|
| 0 | Bob | Accounting |
| 1 | Jake | Engineering |
| 2 | Lisa | Engineering |
df5 = DataFrame({'group':['Engineering','Engineering','HR'],
'supervisor':['Carly','Guido','Steve']
})
df5
| group | supervisor | |
|---|---|---|
| 0 | Engineering | Carly |
| 1 | Engineering | Guido |
| 2 | HR | Steve |
pd.merge(df1,df5,how='outer')
| employee | group | supervisor | |
|---|---|---|---|
| 0 | Bob | Accounting | NaN |
| 1 | Jake | Engineering | Carly |
| 2 | Jake | Engineering | Guido |
| 3 | Lisa | Engineering | Carly |
| 4 | Lisa | Engineering | Guido |
| 5 | NaN | HR | Steve |
key的规范化
- 当列冲突时,即有多个列名称相同时,需要使用on=来指定哪一个列作为key,配合suffixes指定冲突列名
df1 = DataFrame({'employee':['Jack',"Summer","Steve"],
'group':['Accounting','Finance','Marketing']})
df1
| employee | group | |
|---|---|---|
| 0 | Jack | Accounting |
| 1 | Summer | Finance |
| 2 | Steve | Marketing |
df2 = DataFrame({'employee':['Jack','Bob',"Jake"],
'hire_date':[2003,2009,2012],
'group':['Accounting','sell','ceo']})
df2
| employee | group | hire_date | |
|---|---|---|---|
| 0 | Jack | Accounting | 2003 |
| 1 | Bob | sell | 2009 |
| 2 | Jake | ceo | 2012 |
pd.merge(df1,df2,on='group')
# 指定按照 group 这一列来进行分组,会将两个表中相同的字段名都加在合并后的表中,两个字段会改变
# 也可以通过这个 suffixes=('_x', '_y') 参数进行一个修改
| employee_x | group | employee_y | hire_date | |
|---|---|---|---|---|
| 0 | Jack | Accounting | Jack | 2003 |
- 当两张表没有可进行连接的列时,可使用left_on和right_on手动指定merge中左右两边的哪一列作为连接的列
df1 = DataFrame({'employee':['Bobs','Linda','Bill'],
'group':['Accounting','Product','Marketing'],
'hire_date':[1998,2017,2018]})
df1
| employee | group | hire_date | |
|---|---|---|---|
| 0 | Bobs | Accounting | 1998 |
| 1 | Linda | Product | 2017 |
| 2 | Bill | Marketing | 2018 |
df5 = DataFrame({'name':['Lisa','Bobs','Bill'],
'hire_dates':[1998,2016,2007]})
df5
| hire_dates | name | |
|---|---|---|
| 0 | 1998 | Lisa |
| 1 | 2016 | Bobs |
| 2 | 2007 | Bill |
pd.merge(df1,df5,left_on='employee',right_on='name',how='outer')
# 分别指定df1表中的employee字段和df5表中的name字段进行一个比对连接,
| employee | group | hire_date | hire_dates | name | |
|---|---|---|---|---|---|
| 0 | Bobs | Accounting | 1998.0 | 2016.0 | Bobs |
| 1 | Linda | Product | 2017.0 | NaN | NaN |
| 2 | Bill | Marketing | 2018.0 | 2007.0 | Bill |
| 3 | NaN | NaN | NaN | 1998.0 | Lisa |
内合并与外合并:out取并集 inner取交集
pandas的级联操作的更多相关文章
- Pandas | 20 级联
Pandas提供了各种工具(功能),可以轻松地将Series,DataFrame和Panel对象组合在一起. pd.concat(objs,axis=0,join='outer',join_axes= ...
- Pandas的拼接操作
pandas的拼接操作 pandas的拼接分为两种: 级联:pd.concat, pd.append 合并:pd.merge, pd.join import pandas as pd import n ...
- (四)pandas的拼接操作
pandas的拼接操作 #重点 pandas的拼接分为两种: 级联:pd.concat, pd.append 合并:pd.merge, pd.join 0. 回顾numpy的级联 import num ...
- [原创]关于Hibernate中的级联操作以及懒加载
Hibernate: 级联操作 一.简单的介绍 cascade和inverse (Employee – Department) Casade用来说明当对主对象进行某种操作时是否对其关联的从对象也作类似 ...
- Java三大框架之——Hibernate关联映射与级联操作
什么是Hibernate中的关联映射? 简单来说Hibernate是ORM映射的持久层框架,全称是(Object Relational Mapping),即对象关系映射. 它将数据库中的表映射成对应的 ...
- Hibernate(八)__级联操作、struts+hibernate+接口编程架构
级联操作 所谓级联操作就是说,当你进行主对象某个操作时,从对象hibernate自动完成相应操作. 比如: Department <---->Student 对象关系,我希望当我删除一个d ...
- 【EF学习笔记10】----------主从表级联操作
主从表 级联新增 Console.WriteLine("=========主从表 级联新增=========="); using (var db = new Entities()) ...
- JPA学习---第九节:JPA中的一对多双向关联与级联操作
一.一对多双向关联与级联操作 1.创建项目,配置文件代码如下: <?xml version="1.0" encoding="UTF-8"?> < ...
- hibernate 一对多操作(级联操作)
一对多级联操作 1. 级联保存 复杂写法 Company company = new Company(); company.setcName("Hello"); company. ...
随机推荐
- mini-web框架-元类-总结(5.4.1)
@ 目录 1.说明 2.代码 关于作者 1.说明 python中万物都是对象 使用python中自带的globals函数返回一个字典 通过这个可以调取当前py文件中的所有东西 当定义一个函数,类,全局 ...
- 附029.Kubernetes安全之网络策略
目录 环境构建 基础环境构建 网络测试 安全策略 策略配置 策略测试 ingress方向测试 egress方向测试 to和from行为 默认策略 环境构建 基础环境构建 [root@master01 ...
- python爬虫爬取安居客并进行简单数据分析
本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理 爬取过程一.指定爬取数据二.设置请求头防止反爬三.分析页面并且与网页源码进行比对四.分析页面整理数据 ...
- Dubbo SPI源码解析①
目录 0.Java SPI示例 1.Dubbo SPI示例 2.Dubbo SPI源码分析 SPI英文全称为Service Provider Interface.它的作用就是将接口实现类的全限定名 ...
- 痞子衡嵌入式:MCUXpresso IDE下SDK工程导入与workspace管理机制
大家好,我是痞子衡,是正经搞技术的痞子.今天痞子衡给大家介绍的是MCUXpresso IDE下SDK工程导入与workspace管理机制. MCUXpresso IDE是恩智浦软件团队倾注很大心血研发 ...
- ssrf与gopher与redis
ssrf与gopher与redis 前言 ssrf打redis是老生常谈的问题,众所周知redis可以写文件,那么ssrf使用gopher协议去控制未授权的redis进行webshell的写入和计划任 ...
- 吞食鱼2(FeedingFrenzyTwo) 修改器
吞食鱼2(FeedingFrenzyTwo) 修改器 童年回忆系列.小时候特别喜欢玩这类游戏,软件不大,很慢的网速也不会下载太久,然后对配置要求不高,很破的电脑也可以玩得很开心.不过也有糟心的时候啊, ...
- Vue知识点精简汇总
一. 组件component 1. 什么是组件? 组件(Component)是 Vue.js 最强大的功能之一.组件可以扩展 HTML 元素,封装可重用的代码组件是自定义元素(对象) 2. 定义组件的 ...
- 手摸手带你用Hexo撸博客(三)之添加评论系统
原文地址 注: 笔者采用的是butterfly主题, 主题内置集成评论系统 butterfly主题开启评论 开启评论需要在comments-use中填写你需要的评论. 以Valine为例 commen ...
- Logstash学习之路(五)使用Logstash抽取mysql数据到kakfa
一.Logstash对接kafka测通 说明: 由于我这里kafka是伪分布式,且kafka在伪分布式下,已经集成了zookeeper. 1.先将zk启动,如果是在伪分布式下,kafka已经集成了zk ...