Titanic 数据集是从 kaggle下载的,下载地址:https://www.kaggle.com/c/titanic/data 数据一共又3个文件,分别是:train.csv,test.csv,gender_submission.csv 先把需要视同的库导入: import os import datetime import operator import numpy as np import pandas as pd import xgboost as xgb from sklearn.…
Titanic 数据集是从 kaggle下载的,下载地址:https://www.kaggle.com/c/titanic/data 数据一共又3个文件,分别是:train.csv,test.csv,gender_submission.csv 先把需要视同的库导入: import os import datetime import operator import numpy as np import pandas as pd import xgboost as xgb from sklearn.…
python机器学习-sklearn挖掘乳腺癌细胞( 博主亲自录制) 网易云观看地址 https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share 乳腺癌细胞和正常细胞是有显著区别的 癌细胞半径更大,形状更加不规则,凹凸不平.我们可以用科学手段来区分正常细胞和癌细胞吗?答案…
python机器学习-sklearn挖掘乳腺癌细胞( 博主亲自录制) 网易云观看地址 https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share 前言 警钟长鸣!癌症离我们远吗?<我不是药神>催人泪下,笔者在此揭露真相,癌症不是小概率疾病,癌症就在身边.癌症早…
python机器学习-sklearn挖掘乳腺癌细胞( 博主亲自录制) 网易云观看地址 https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share  模型验证 分类器好坏验证,模型建立好后,不是万事大吉,需要进行crossvalidation, AUC,GINi,KS,Ga…
python机器学习-sklearn挖掘乳腺癌细胞( 博主亲自录制) 网易云观看地址 https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share 模型调参 调参是一门黑箱技术,需要经验丰富的机器学习工程师才能做到.幸运的是sklearn有调参的包,入门级学者也可尝试调参.…
python机器学习-sklearn挖掘乳腺癌细胞( 博主亲自录制) 网易云观看地址 https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share sklearn编程环境搭建 (1)下载anaconda 首先下载anaconda,这款框架比Python官网的编辑器更好用,下…
使用python3 学习了决策树分类器的api 涉及到 特征的提取,数据类型保留,分类类型抽取出来新的类型 需要网上下载数据集,我把他们下载到了本地, 可以到我的git下载代码和数据集: https://github.com/linyi0604/MachineLearning import pandas as pd from sklearn.cross_validation import train_test_split from sklearn.feature_extraction impor…
数据清洗及可视化 实验内容 数据清洗是数据分析中非常重要的一部分,也最繁琐,做好这一步需要大量的经验和耐心.这门课程中,我将和大家一起,一步步完成这项工作.大家可以从这门课程中学习数据清洗的基本思路以及具体操作,同时,练习使用 Pandas 数据分析工具.Seaborn 统计分析可视化工具. 实验知识点 离群点分析 缺失值处理 偏态分布数据处理 实验步骤 环境准备 下载数据 !wget -nc http://labfile.oss.aliyuncs.com/courses/1001/train.…
单一标准的决策树:会根每维特征对预测结果的影响程度进行排序,进而决定不同特征从上至下构建分类节点的顺序.Random Forest Classifier:使用相同的训练样本同时搭建多个独立的分类模型,然后通过投票的方式,以少数服从多数的原则做出最终的分类决策.随机选取特征.GBDT:按照一定次序搭建多个分类模型,模型之间存在依赖关系,一般,每一个后续加入的模型都需要对集成模型的综合性能有所贡献,最终期望整合多个弱分类器,搭建出具有更强分类能力的模型. #coding=utf8 # 导入panda…
Scikit learn 也简称 sklearn, 是机器学习领域当中最知名的 python 模块之一. Sklearn 包含了很多种机器学习的方式: Classification 分类 Regression 回归 Clustering 非监督分类 Dimensionality reduction 数据降维 Model Selection 模型选择 Preprocessing 数据预处理 我们总能够从这些方法中挑选出一个适合于自己问题的, 然后解决自己的问题. 安装 Scikit-learn (…
if __name__=="__main__": '''============================先导入数据==================================''' file_train = 'F:/goverment/exceloperating/all_tocai_train.csv' file_test = 'F:/goverment/exceloperating/all_tocai_test.csv' importSmallContentdata…
ML神器:sklearn的快速使用 传统的机器学习任务从开始到建模的一般流程是:获取数据 -> 数据预处理 -> 训练建模 -> 模型评估 -> 预测,分类.本文我们将依据传统机器学习的流程,看看在每一步流程中都有哪些常用的函数以及它们的用法是怎么样的.希望你看完这篇文章可以最为快速的开始你的学习任务. 1. 获取数据 1.1 导入sklearn数据集 sklearn中包含了大量的优质的数据集,在你学习机器学习的过程中,你可以通过使用这些数据集实现出不同的模型,从而提高你的动手实践…
Evernote Export 机器学习的运行步骤 1.导入数据 没什么注意的,成功导入数据集就可以了,打印看下数据的标准格式就行 用个info和describe 2.分析数据 这里要详细分析数据的内容,看看缺省值和数据的特征,主要是为了看到数据的特征,并且人肉分析一下特征值对目标值的大约影响,嗯,就是这样 然后开始划分数据,将数据分为两个部分,一个数据的特征值(features),一个是数据的目标值(target) 这里要用到数据的基本操作,有数据清洗和数据整理等内容. 重点:数据的分割,这里…
import matplotlib.pyplot as pltfrom sklearn.svm import SVCfrom sklearn.model_selection import StratifiedKFoldfrom sklearn.feature_selection import RFECVfrom sklearn.datasets import make_classificationfrom sklearn.tree import DecisionTreeClassifier 1.…
一.前述 上节我们讲解了xgboost的基本知识,本节我们通过实例进一步讲解. 二.具体 1.安装 默认可以通过pip安装,若是安装不上可以通过https://www.lfd.uci.edu/~gohlke/pythonlibs/网站下载相关安装包,将安装包拷贝到Anacoda3的安装目录的Scrripts目录下, 然后pip install 安装包安装. 2.代码实例 import xgboost# First XGBoost model for Pima Indians dataset fr…
一.前述 在 Kaggle 的很多比赛中,我们可以看到很多 winner 喜欢用 xgboost,而且获得非常好的表现,今天就来看看 xgboost 到底是什么以及如何应用.Gradient boosting 是 boosting 的其中一种方法,所谓 Boosting ,就是将弱分离器 f_i(x) 组合起来形成强分类器 F(x) 的一种方法. 二.具体 1.举例 说明:在tree1和tree2里面 男孩的得分值是2.9,实际是将不同的权重值加和 . 相当于将不同的弱分类器组合起来,这种思想就…
目录 xgboost CART(Classify and Regression Tree) GBDT(Gradient Boosting Desicion Tree) GB思想(Gradient Boosting) DT树(Desicion Tree) 横空出世的前向分步算法 GB再解释 GBDT 大BOSS--xgboost 训练xgboost xgboost模型 目标函数 正则化项处理 理论终章 最终章-拨开云雾见月明 多说一嘴 xgboost xgboost是一个监督模型,它对应的模型就是…
目录 1.基本知识点简介 2.梯度提升树GBDT算法 2.1 思路和原理 2.2 梯度代替残差建立CART回归树 3.XGBoost提升树算法 3.1 XGBoost原理 3.2 XGBoost中损失函数的泰勒展开 3.3 XGBoost中正则化项的选定 3.4 最终的目标损失函数及其最优解的表达形式 4.LightGBM轻量级提升学习方法 4.1 leaf-wise分裂策略 4.2 基于直方图的排序算法 4.3 支持类别特征和高效并行处理 1.基本知识点简介 在集成学习的Boosting提升算…
1.介绍 Ridge 回归通过对系数的大小施加惩罚来解决 普通最小二乘法 的一些问题. 岭系数最小化的是带罚项的残差平方和, 其中,α≥0α≥0 是控制系数收缩量的复杂性参数: αα 的值越大,收缩量越大,这样系数对共线性的鲁棒性也更强. 2.参数 alpha:{float,array-like},shape(n_targets) 正则化强度; 必须是正浮点数. 正则化改善了问题的条件并减少了估计的方差. 较大的值指定较强的正则化. Alpha对应于其他线性模型(如Logistic回归或Line…
目录 波士顿房价预测 导入模块 获取数据 打印数据 特征选择 散点图矩阵 关联矩阵 训练模型 可视化 波士顿房价预测 导入模块 import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns from matplotlib.font_manager import FontProperties from sklearn.linear_model import LinearReg…
决策树 熵的定义 如果一个随机变量X的可能取值为X={x1,x2,..,xk},其概率分布为P(X=x)=pi(i=1,2,...,n),则随机变量X的熵定义为\(H(x) = -\sum{p(x)logp(x)}=\sum{p(x)log{\frac{1}{p(x)}}}\).需要注意的是,熵越大,随机变量的不确定性就越大. 当n = 2的时候,\(H(p)=-plogp-(1-p)log(1-p)\)也就是交叉熵的损失函数. 条件熵 条件熵主要是用来计算,在莫一列数据X选中的条件下,其标签Y…
sklearn相关模块导入 from sklearn.feature_extraction import DictVectorizer from sklearn.feature_extraction.text import CountVectorizer,TfidfVectorizer from sklearn.preprocessing import MinMaxScaler,StandardScaler,Imputer from sklearn.feature_selection impor…
混淆矩阵 confusion_matrix 下面将一一给出'tp','fp','fn'的具体含义: 准确率: 所有识别为"1"的数据中,正确的比率是多少. 如识别出来100个结果是"1", 而只有90个结果正确,有10个实现是非"1"的数据. 所以准确率就为90% 召回率: 所有样本为1的数据中,最后真正识别出1的比率. 如100个样本"1", 只识别出了93个是"1", 其它7个是识别成了其它数据. 所以…
目录 1.基本知识点简介 2.XGBoost提升树算法 2.1 XGBoost原理 2.2 XGBoost中损失函数的泰勒展开 2.3 XGBoost中正则化项的选定 2.4 最终的目标损失函数及其最优解的表达形式 1.基本知识点简介 在集成学习的Boosting提升算法中,有两大家族:第一是AdaBoost提升学习方法,另一种是GBDT梯度提升树. 传统的AdaBoost算法:利用前一轮迭代弱学习器的误差来更新训练集的权重,一轮轮迭代下去. 梯度提升树GBDT:也是通过迭代的算法,使用前向分布…
sklearn-生成随机数据 import numpy as np import pandas as pd import matplotlib.pyplot as plt from matplotlib.font_manager import FontProperties from sklearn import datasets %matplotlib inline font = FontProperties(fname='/Library/Fonts/Heiti.ttc') 多标签分类数据 X…
import numpy as np import pandas as pd from Udacity.model_check.boston_house_price import visuals as vs # Supplementary code from sklearn.model_selection import ShuffleSplit # Pretty display for notebooks # 让结果在notebook中显示 # Load the Boston housing d…
工作原理 基于集成算法的多个树累加, 可以理解为是弱分类器的提升模型 公式表达 基本公式 目标函数 目标函数这里加入了损失函数计算 这里的公式是用的均方误差方式来计算 最优函数解 要对所有的样本的损失值的期望, 求解最小的程度作为最优解 集成算法表示 集成算法中对所有的树进行累加处理 公式流程分解 每加一棵树都应该在之前基础上有一个提升 损失函数 叶子节点惩罚项 损失函数加入到基本公式目标函数中 多余出来的常数项就用 c 表示即可 目标函数推导 如上图. 三个树, 真实值 1000 , 第一棵树…
知识点 """ xgboost:是一种提升算法,串行的决策树 过程: 第一棵树:目标值:1000 ,预测值:950 第二颗树:目标值:1000-950=50(残差作为输入) 预测值:30 第三颗树:目标值:50-30=20(残差作为输入) 预测值:18 最终的目标值:三棵树的预测值相加,即950+30+18 xgboost算法开发过程: 1.数据预处理和数据清洗 2.数据归一化或标准化 3.构建xgboost所需的矩阵,dtrain = xgb.DMatrix(train_x…
前面一节咱们已经介绍了决策树的原理已经在sklearn中的应用.那么这里还有两个数据处理和sklearn应用中的小知识点咱们还没有讲,但是在实践中却会经常要用到的,那就是交叉验证cross_validation和Pipeline.cross_validation是保证了咱们的模型不受数据分布的影响,因为有些数据可能因为数据的分布很不平均,导致咱们训练的模型虽然在咱们的数据集里面的表现很好,但是在实际中却可能是不一样的情况,cross validation的作用是model checking,而不…