1、读取文件为pandas格式:

import pandas as pd
import numpy as np
dataset = pd.read_csv("C:/Users/Administrator/Desktop/test.csv",encoding='gbk')

这样就读取了一个csv文件作为dataframe格式的文件,结果如下:

2、查看读取数据的概况和维度使用如下命令:

dataset.head()      # 若括号不填写任何信息,默认查看df的前五行,当然也可以填写数字,填写几就查看前几行的数据
dataset.shape       # 查看数据的维度信息,即df数据有几行几列

3、获取所需字段:

X = dataset.loc[:,['CLASS_LEVEL','COMBINE_TAG_LEN','TAG_POS','SIMI']]

这里loc默认是[a,b]这种格式,a代表需要获取行的名称,b代表需要获取列的名称,假如a用:表示意味着获取所有的行,列也同理;上述代码代表就是获取

CLASS_LEVEL,COMBINE_TAG_LEN等所在列的所有行的数据;
4、随机抽取数据:
data_0_random = data_0.sample(n=854)

上述代码表示对data_0用sample函数随机抽取了854条数据

5、数据合并:

aa = [data_1,data_0_random]
dataset = pd.concat(aa)
这里也可以用append来代替concat:
data_1_random = data_1.sample(n=86)
data_new = data_0.append(data_1_random)
new_train_data_X = pd.concat([X3,class_id1_df,class_id2_df,class_id3_df],axis =1)

上述代码表示对data_1和data_0_random进行合并,也就是相当于在data_1的最后一行下将data_0_random都复制过来

第6行代表将list =[X3,class_id1_df,class_id2_df,class_id3_df]这些列进行合并,这里可以看到axis=1就是代表列的意思;

6、将list转换为numpy中的array格式:

import numpy as np
class_names1 = np.array(['',''])

7、删除df中一列的内容:

X = dataset.drop('Class', axis=1)

代表将dataset这个文件中的class列删除,注意axis=1,代表删除列;

8、数据量太多,但是还是想要显示所有行进行查看:

import pandas as pd
import numpy as np
np.set_printoptions(threshold=np.inf)
pd.set_option('display.max_columns', None)
pd.set_option('display.max_rows', None)

在代码最前端输入上述三行代码,即可在进行数据分析时候显示所有的读取数据

9、对字符数据进行one-hot编码:

 import pandas as pd
import numpy as np
dataset = pd.read_csv(open("C:/Users/Administrator/Desktop/test.csv",'r',encoding='gbk'))
X = dataset.loc[:,['CLASS_ID1','TAG_POS1','TAG_SIMI1','CLASS_ID2','TAG_POS2','TAG_SIMI2','CLASS_ID3','TAG_POS3','TAG_SIMI3']]
class_id1_df = pd.DataFrame()
class_id1_df = pd.get_dummies(X['CLASS_ID1'],prefix = 'CLASS_ID1')

这里选取class_id1进行one-hot编码,即将字符变为[0,1,1,10]类似这种形式的数字编码,从而方便后期进行建模;

核心编码就两行,第5行代表初始化一个编码结果的空表,第6行代表对class_id1进行one-hot编码,其中prefix代表需要编码的那一列;

10、数据映射:

from pandas import Series
data = [[0,1,0,0,0,0],[0,0,1,0,0,0]]
sl = Series(data,index = ['A01','A02'])
sl
输出:
A01 [0, 1, 0, 0, 0, 0]
A02 [0, 0, 1, 0, 0, 0]
dtype: object

11、选取一列等于某个值的数据,类似SQL中的select。。。where语句

data_0 = dataset.loc[dataset['MARK_RESULT']==0]             # 选取mark=1的值
data_1 = dataset.loc[dataset['MARK_RESULT']==1] # 选取mark=1的值

12、查看相关系数矩阵:

dataset_corr = data_new.corr()
dataset_corr['MARK_RESULT'].sort_values(ascending = False)

在进行数据分析的时候往往要查看所有的自变量中哪两个属性的相关系数较大,从而选取一些典型的特征属性来建模,效果才会更好,可以用corr()方法来进行相关系数计算,并且还

可以对某个属性按照相关系数大小进行排列,从而找到与某个属性最相关的其他属性;

13、获取df某些列的数据,并且按照array格式进行查看:

data = dataset.loc[:, ['CLASS_LEVEL', 'COMBINE_TAG_LEN', 'TAG_POS','TAG_ORDER_POS', 'SIMI']].values
data
输出:
array([[3. , 2. , 0.95, 3. , 0.65],
[5. , 5. , 0.95, 3. , 0.65],
[2. , 2. , 0.95, 1. , 0.95],
...,
[4. , 2. , 0.95, 1. , 0.55],
[4. , 3. , 0.95, 3. , 0.75],
[3. , 2. , 0.95, 1. , 0.95]])

只需要用values方法即可;

14、df中新添加一列,并且该列为其他两列之和:

dataset['plus']=dataset['A']+dataset['B']
dataset

在dataset中新增加一列plus,并且该列为A列和B列的和;

使用pandas,numpy进行数据分析建模的一些常用命令的更多相关文章

  1. python及pandas,numpy等知识点技巧点学习笔记

    python和java,.net,php web平台交互最好使用web通信方式,不要使用Jypython,IronPython,这样的好处是能够保持程序模块化,解耦性好 python允许使用'''.. ...

  2. pandas numpy处理缺失值,none与nan比较

    原文链接:https://junjiecai.github.io/posts/2016/Oct/20/none_vs_nan/ 建议从这里下载这篇文章对应的.ipynb文件和相关资源.这样你就能在Ju ...

  3. 数据分析基础之pandas & numpy

    一.jupyter的常用快捷键 - 插入cell: a, b   a是after从后插入  a是before 从前插入 - 删除cell: dd, x 都可以 - 修改cell的模式:m, y - t ...

  4. pandas模块(数据分析)------Series

    pandas是一个强大的Python数据分析的工具包. pandas是基于NumPy构建的. pandas的主要功能: 具备对其功能的数据结构DataFrame.Series 集成时间序列功能 提供丰 ...

  5. 机器学习 三剑客 之 pandas + numpy

    机器学习 什么是机器学习? 机器学习是从数据中自动分析获得规律(模型),并利用规律对未知数据进行预测 机器学习存在的目的和价值领域? 领域: 医疗.航空.教育.物流.电商 等... 目的: 让机器学习 ...

  6. python pandas/numpy

    import pandas as pdpd.merge(dataframe1,dataframe2,on='common_field',how='outer') replace NaN datafra ...

  7. 【原创】大叔经验分享(11)python引入模块报错ImportError: No module named pandas numpy

    python应用通常需要一些库,比如numpy.pandas等,安装也很简单,直接通过pip # pip install numpyRequirement already satisfied: num ...

  8. Python pandas & numpy 笔记

    记性不好,多记录些常用的东西,真·持续更新中::先列出一些常用的网址: 参考了的 莫烦python pandas DOC numpy DOC matplotlib 常用 习惯上我们如此导入: impo ...

  9. Pandas 高级应用 数据分析

    深入pandas 数据处理 三个阶段 数据准备 数据转化 数据聚合 数据准备 加载 组装 合并 - pandas.merge() 拼接 - pandas.concat() 组合 - pandas.Da ...

随机推荐

  1. PAT Basic 1075 链表元素分类(25) [链表]

    题目 给定⼀个单链表,请编写程序将链表元素进⾏分类排列,使得所有负值元素都排在⾮负值元素的前⾯,⽽[0, K]区间内的元素都排在⼤于K的元素前⾯.但每⼀类内部元素的顺序是不能改变的.例如:给定链表为 ...

  2. Python筛法求素数

    l=[2]m,n=input().split()m=int(m)n=int(n) for i in range(m,n): flag=True for j in l: if i%j==0:#如果当前值 ...

  3. Django框架(一):MVC设计模式、Django简介

    1. MVC设计模式 MVC设计模式:Model-View-Controller简写. 最早由TrygveReenskaug在1978年提出,是施乐帕罗奥多研究中心(Xerox PARC)在20世纪8 ...

  4. jest 测试入门(一)

    说实话,作为前端来说,单元测试,并不是一种必须的技能,但是确实一种可以让你加法的技能 之前我一个库添加了单元测试,加完之后感悟颇深,所以写下这篇文章来记录 环境搭建 一般来说,普通的库,如果没有添加 ...

  5. 吴裕雄--天生自然 JAVA开发学习:抽象类

    public abstract class Employee { private String name; private String address; private int number; pu ...

  6. dubbo通信协议对比

    对dubbo的协议的学习,可以知道目前主流RPC通信大概是什么情况,本文参考dubbo官方文档 http://dubbo.io/User+Guide-zh.htm dubbo共支持如下几种通信协议: ...

  7. RDD(五)——action

    reduce(func) 通过func函数聚集RDD中的所有元素并得到最终的结果,先聚合分区内数据,再聚合分区间数据.Func函数决定了聚合的方式. def main(args: Array[Stri ...

  8. unity学习 5.x打包

    using System.Collections;using System.Collections.Generic;using UnityEngine;using UnityEditor; publi ...

  9. Opencv笔记(十八)——轮廓的更多函数及其层次结构

    凸缺陷 前面我们已经学习了轮廓的凸包,对象上的任何凹陷都被成为凸缺陷.OpenCV 中有一个函数 cv.convexityDefect() 可以帮助我们找到凸缺陷.函数调用如下: hull = cv2 ...

  10. 爬虫笔记(九)——安装Fiddler

    在ubuntu下不能直接安装Fiddler,我们要先安装mono环境,具体可分为三个步骤: 1.   在终端下输入指令安装mono环境 :sudo apt-get install mono-compl ...