#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2018/5/24 15:03
# @Author : zhang chao
# @File : s.py
import pandas as pd
import numpy as np df = pd.DataFrame(np.random.randn(10, 4),
index = pd.date_range('1/1/2019', periods=10),
columns = ['A', 'B', 'C', 'D']) print (df)
print("=======================================")
r = df.rolling(window=3,min_periods=1)
print (r)
print("=======================================")
print("r.aggregate(np.sum)")
print (r.aggregate(np.sum))
print("=======================================")
print("r['A'].aggregate(np.sum)")
print (r['A'].aggregate(np.sum))
print("=======================================")
print("r[['A','B']].aggregate(np.sum)")
print (r[['A','B']].aggregate(np.sum))
print("=======================================")
print("r['A'].aggregate([np.sum,np.mean])")
print (r['A'].aggregate([np.sum,np.mean]))
print("=======================================")
print("r.aggregate({'A' : np.sum,'B' : np.mean})")
print (r.aggregate({'A' : np.sum,'B' : np.mean}))
print("=======================================")
print("r[['A','B']].aggregate([np.sum,np.mean]")
print (r[['A','B']].aggregate([np.sum,np.mean])) D:\Download\python3\python3.exe D:/Download/pycharmworkspace/s.py
A B C D
2019-01-01 0.744560 0.208652 0.542045 -0.995837
2019-01-02 0.029809 -1.419936 -0.461988 2.177032
2019-01-03 0.613583 1.515249 0.256546 -0.973564
2019-01-04 0.124320 1.152804 0.152107 1.629035
2019-01-05 -0.287906 1.003523 -0.793393 0.231969
2019-01-06 -0.045296 -0.921622 0.894335 0.773035
2019-01-07 -0.695347 0.512206 0.208833 0.953205
2019-01-08 -1.197178 0.142301 -0.854875 -1.044017
2019-01-09 -2.352468 0.047127 -0.351634 -0.373885
2019-01-10 0.678406 0.500947 0.304250 -0.606522
=======================================
Rolling [window=3,min_periods=1,center=False,axis=0]
=======================================
r.aggregate(np.sum)
A B C D
2019-01-01 0.744560 0.208652 0.542045 -0.995837
2019-01-02 0.774369 -1.211283 0.080057 1.181195
2019-01-03 1.387952 0.303966 0.336603 0.207631
2019-01-04 0.767712 1.248117 -0.053335 2.832504
2019-01-05 0.449996 3.671576 -0.384740 0.887441
2019-01-06 -0.208882 1.234705 0.253049 2.634040
2019-01-07 -1.028549 0.594107 0.309775 1.958209
2019-01-08 -1.937820 -0.267115 0.248293 0.682223
2019-01-09 -4.244992 0.701633 -0.997676 -0.464698
2019-01-10 -2.871239 0.690374 -0.902259 -2.024425
=======================================
r['A'].aggregate(np.sum)
2019-01-01 0.744560
2019-01-02 0.774369
2019-01-03 1.387952
2019-01-04 0.767712
2019-01-05 0.449996
2019-01-06 -0.208882
2019-01-07 -1.028549
2019-01-08 -1.937820
2019-01-09 -4.244992
2019-01-10 -2.871239
Freq: D, Name: A, dtype: float64
=======================================
r[['A','B']].aggregate(np.sum)
A B
2019-01-01 0.744560 0.208652
2019-01-02 0.774369 -1.211283
2019-01-03 1.387952 0.303966
2019-01-04 0.767712 1.248117
2019-01-05 0.449996 3.671576
2019-01-06 -0.208882 1.234705
2019-01-07 -1.028549 0.594107
2019-01-08 -1.937820 -0.267115
2019-01-09 -4.244992 0.701633
2019-01-10 -2.871239 0.690374
=======================================
r['A'].aggregate([np.sum,np.mean])
sum mean
2019-01-01 0.744560 0.744560
2019-01-02 0.774369 0.387185
2019-01-03 1.387952 0.462651
2019-01-04 0.767712 0.255904
2019-01-05 0.449996 0.149999
2019-01-06 -0.208882 -0.069627
2019-01-07 -1.028549 -0.342850
2019-01-08 -1.937820 -0.645940
2019-01-09 -4.244992 -1.414997
2019-01-10 -2.871239 -0.957080
=======================================
r.aggregate({'A' : np.sum,'B' : np.mean})
B A
2019-01-01 0.208652 0.744560
2019-01-02 -0.605642 0.774369
2019-01-03 0.101322 1.387952
2019-01-04 0.416039 0.767712
2019-01-05 1.223859 0.449996
2019-01-06 0.411568 -0.208882
2019-01-07 0.198036 -1.028549
2019-01-08 -0.089038 -1.937820
2019-01-09 0.233878 -4.244992
2019-01-10 0.230125 -2.871239
=======================================
r[['A','B']].aggregate([np.sum,np.mean]
A B
sum mean sum mean
2019-01-01 0.744560 0.744560 0.208652 0.208652
2019-01-02 0.774369 0.387185 -1.211283 -0.605642
2019-01-03 1.387952 0.462651 0.303966 0.101322
2019-01-04 0.767712 0.255904 1.248117 0.416039
2019-01-05 0.449996 0.149999 3.671576 1.223859
2019-01-06 -0.208882 -0.069627 1.234705 0.411568
2019-01-07 -1.028549 -0.342850 0.594107 0.198036
2019-01-08 -1.937820 -0.645940 -0.267115 -0.089038
2019-01-09 -4.244992 -1.414997 0.701633 0.233878
2019-01-10 -2.871239 -0.957080 0.690374 0.230125 Process finished with exit code 0

pandas聚合aggregate的更多相关文章

  1. mongodb的聚合aggregate|group|match|project|sort|limit|skip|unwind

    聚合 aggregate 聚合(aggregate)主要用于计算数据,类似sql中的sum().avg() 语法 db.集合名称.aggregate([{管道:{表达式}}]) 管道 管道在Unix和 ...

  2. MongoDB(七):聚合aggregate

    1. 聚合aggregate 聚合主要用于计算数据,类似sql中的sum().avg() 语法: db.集合名称.aggregate([{管道:{表达式}}]) stu准备的数据: db.stu.in ...

  3. mongodb 聚合(aggregate)

      MongoDB中文手册|官方文档中文版 https://docs.mongoing.com/ 聚合操作处理数据记录和 return 计算结果.聚合操作将来自多个文档的值组合在一起,并且可以对分组数 ...

  4. pandas聚合和分组运算——GroupBy技术(1)

    数据聚合与分组运算——GroupBy技术(1),有需要的朋友可以参考下. pandas提供了一个灵活高效的groupby功能,它使你能以一种自然的方式对数据集进行切片.切块.摘要等操作.根据一个或多个 ...

  5. Pandas聚合

    数据聚合 import pandas as pd from pandas import Series import numpy as np # 准备数据 df = pd.DataFrame([[-0. ...

  6. pandas聚合和分组运算之groupby

    pandas提供了一个灵活高效的groupby功能,它使你能以一种自然的方式对数据集进行切片.切块.摘要等操作.根据一个或多个键(可以是函数.数组或DataFrame列名)拆分pandas对象.计算分 ...

  7. django中聚合aggregate和annotate GROUP BY的使用方法

    接触django已经很长时间了,但是使用QuerySet查询集的方式一直比较低端,只会使用filter/Q函数/exclude等方式来查询,数据量比较小的时候还可以,但是如果数据量很大,而且查询比较复 ...

  8. MongoDB聚合(aggregate)

    一.基础 1.什么是聚合? 聚合是基于数据处理的聚合管道,每个文档通过一个有多个阶段(stage)组成的管道可以对每个阶段的管道进行分组.过滤等功能,然后经过一系列的处理,输出相应的结果 db.集合名 ...

  9. pandas 聚合求和等操作

    参考:https://blog.csdn.net/m0_38139979/article/details/106606633 result1= result.groupby(['user_id', ' ...

随机推荐

  1. TStack与IBM LinuxONE通过兼容性认证

    近日,腾讯云TStack与IBM LinuxONE通过兼容性认证,通过腾讯云TStack,可实现便捷管理IBM LinuxONE服务器.这为腾讯和IBM在未来多方面的商业合作奠定了坚实基础,也为腾讯云 ...

  2. 对 String 字符串的理解

    1.通过构造方法创建的字符串对象和直接赋值方式创建的字符串对象区别? 通过构造方法创建字符串对象是在堆内存. 直接赋值方式创建对象是在方法区的常量池. ==: 基本数据类型,比较的是基本数据类型的值是 ...

  3. java并发编程CountDownLatch

    /** * CountDownLatch用法 * CountDownLatch类位于java.util.concurrent包下,利用它可以实现类似计数器的功能.比如有一个任务A, * 它要等待其他4 ...

  4. pycharm 取消 rebase 操作

    291/5000 取消rebase操作从主菜单中选择VCS | Git | 中止重新定位(abrot rebasing)如果rebase在两个或多个本地存储库中启动,则会显示“中止重新排序”对话框. ...

  5. python_第一章

    从今天开始,正式开始学习python书籍:python 编程:从入门到实践. 感兴趣的读者可以去网上搜索这本书,适合读者入门,读下来,不会有任何 晦涩难懂的知识. 1.排序: 正排:sort()    ...

  6. .NET和F#周报第35周-.NET 8月重大更新

    来看看8月份最后一个周F#和.NET最新相关信息. https://www.yuque.com/rock/fsharp-weekly/35 这次我们多聊聊.NET相关的东西, 看看.NET的健康生态. ...

  7. 【强化学习】python 实现 saras 例一

    本文作者:hhh5460 本文地址:https://www.cnblogs.com/hhh5460/p/10146554.html 说明:将之前 q-learning 实现的例一,用 saras 重新 ...

  8. .net core实践系列之短信服务-为什么选择.net core(开篇)

    前言 从今天我将会写.net core实战系列,以我最近完成的短信服务作为例子.该系列将会尽量以最短的时间全部发布出来.源码也将优先开源出来给大家. 源码地址:https://github.com/S ...

  9. [开源 .NET 跨平台 Crawler 数据采集 爬虫框架: DotnetSpider] [二] 基本使用

    [DotnetSpider 系列目录] 一.初衷与架构设计 二.基本使用 三.配置式爬虫 四.JSON数据解析与配置系统 五.如何做全站采集 使用环境 Visual Studio 2017 .NET ...

  10. [linux] VirtualBox复制虚拟机

    环境: Oracle VM VirtualBox 5.0.20 CentOS-6.7-x86_64-minimal.iso 1.复制虚拟机 -->右击休眠状态模板虚拟机,选择复制 -->填 ...