from xgboost.sklearn import XGBClassifier
model=XGBClassifier(base_score=0.5, booster='gbtree', colsample_bylevel=1,
colsample_bytree=1, gamma=0, learning_rate=0.1, max_delta_step=0,
max_depth=3, min_child_weight=1, missing=None, n_estimators=100,
n_jobs=1, nthread=None, objective='binary:logistic', random_state=0,
reg_alpha=0, reg_lambda=1, scale_pos_weight=1, seed=None,
silent=True, subsample=1)

1、通用参数(控制Xgboost的宏观功能)

booster: [default=gbtree]

  • gbtree: tree-based models,树模型做为基分类器
  • gblinear: linear models,线性模型做为基分类器

silent:[default=True]

  • silent=True时,不输出中间过程(默认)
  • silent=Flase时,输出中间过程

nthread:[default=None]

  • 主要用于并行计算,系统的内核数需要作为变量。如果希望运行所有的内核,就不需要设置该参数,程序会自己检测到该值。

n_jobs:[default=1]

  • 线程数目

2、Booster参数(控制每一步的Booster(tree\regression))

有两种booster可以选择,但是tree booster的效果比 linear booster效果好太多,因此linear booster很少用到。

learning_rate:[default=0.1]

  • 原名eta,学习率,控制每次迭代更新权重时的步长。值越小,训练的越慢。取值范围:[0,1]。典型值为0.01~0.2

n_estimators:[default=100]

  • 估计器的数量

min_child_weight:[default=1]

  • 拆分节点权重和阈值
  • 如果节点的样本权重和小于该阈值,就不再进行拆分。在线性回归模型中,这个是指建立每个模型所需要的最小样本数。
  • 值越大,算法越保守。取值范围为:[0,∞]
  • 用于防止过拟合问题:较大的值能防止过拟合,过大的值会导致欠拟合问题
  • 需要通过CV调参

max_depth:[default=3]

  • 每个基本学习器树的最大深度,用于防止过拟合问题。通过CV调参。典型值:3~10

gamma:[default=0]

  • 损失阈值,在树的一个叶节点上进一步分裂所需的最小损失减少量,gamma值越大,算法越保守。取值范围为:[0,∞]

max_delta_step:[default=0]

  • 每棵树的最大权重估计。如果它的值被设置为0,意味着没有约束;如果它被设置为一个正值,能够权重的变化将会变得相对保守。通常这个参数不会被使用,但如果是极度不平衡的逻辑回归将会有所帮助。把它范围设置为1-10之间也许能控制更新。 取值范围为:[0,∞]

subsample:[default=1]

  • 随机选取一定比例的样本来训练树。设置为0.5,则意味着XGBoost将从整个样本集合中随机的抽取出50%子样本建立树模型,这能够防止过拟合。
  • 取值范围为:(0,1]。减小这个参数的值,算法会更加保守,避免过拟合。但是,如果这个值设置得过小,它可能会导致欠拟合。 典型值:0.5-1。

colsample_bytree:[default=1]

  • 指的是每棵树随机选取的特征的比例,取值范围(0,1]。

colsample_bylevel: [default=1]

  • 指的是树的每个层级分裂时子样本的特征所占的比例,这个一般很少用。因为subsample和colsample_bytree组合做的事与之类似。

reg_alpha:[default=0]

  • 权重的L1正则化项(和Lasso regression类似)。这个主要是用在数据维度很高的情况下,可以提高运行速度。

reg_lambda:[default=1]

  • 权重的L2正则化项(和Ridge regression类似)。这个参数是用来控制XGBoost的正则化部分的。虽然大部分数据科学家很少用到这个参数,但是这个参数在减少过拟合上还是可以挖掘出更多用处的。

scale_pos_weight:[default=1]

  • 处理样本不平衡问题。在样本高度不平衡时,将参数设置大于0,可以加快算法收敛。

3、学习目标参数

objective:指的是需要被最小化的损失函数。

  • “reg:linear”         线性回归
  • “reg:logistic”       逻辑回归
  • “binary:logistic”   二分类的逻辑回归,返回的是预测概率(不是类别)
  • “binary:logitraw”  二分类的逻辑回归,返回的结果为wTx
  • “count:poisson”   计数问题的poisson回归,输出结果为poisson分布。在poisson回归中,max_delta_step的缺省值为0.7。(used to safeguard optimization)
  • “multi:softmax”   采用softmax目标函数处理多分类问题,需要多设置一个参数num_class(类别个数),返回预测的类别(不是概率)。
  • “multi:softprob”   和multi:softmax参数类似,但是输出结果是每个样本属于各个类别的概率。
  • “rank:pairwise”   set XGBoost to do ranking task by minimizing the pairwise loss

seed:[default=None]

  • 随机数种子,设置它可以复现随机数据的结果,也可以用于调整参数。

4、其他

base_score: [default=0.5]

  • 所有实例的初始预测得分,整体偏倚。

missing:[default=None]

  • 在数据中,标注为缺失值的表示。如果为None,则默认为np.nan

random_state:[default=0]

Xgboost的sklearn接口参数说明的更多相关文章

  1. xgboost的sklearn接口和原生接口参数详细说明及调参指点

    from xgboost import XGBClassifier XGBClassifier(max_depth=3,learning_rate=0.1,n_estimators=100,silen ...

  2. xgboost与sklearn的接口

    xgb使用sklearn接口(推荐) XGBClassifier from xgboost.sklearn import XGBClassifier clf = XGBClassifier( sile ...

  3. 【机器学习】集成学习之xgboost的sklearn版XGBClassifier使用教程

    XGBClassifier是xgboost的sklearn版本.代码完整的展示了使用xgboost建立模型的过程,并比较xgboost和randomForest的性能. # -*- coding: u ...

  4. keras开发成sklearn接口

    我们可以通过包装器将Sequential模型(仅有一个输入)作为Scikit-Learn工作流的一部分,相关的包装器定义在keras.wrappers.scikit_learn.py中: 这里有两个包 ...

  5. lightgbm的sklearn接口和原生接口参数详细说明及调参指点

    class lightgbm.LGBMClassifier(boosting_type='gbdt', num_leaves=31, max_depth=-1, learning_rate=0.1, ...

  6. Python机器学习笔记:XgBoost算法

    前言 1,Xgboost简介 Xgboost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器.因为Xgboost是一种提升树模型,所以它是将许多 ...

  7. Xgboost建模

    xgboost参数 选择较高的学习速率(learning rate).一般情况下,学习速率的值为0.1.但是,对于不同的问题,理想的学习速率有时候会在0.05到0.3之间波动.选择对应于此学习速率的理 ...

  8. XGBoost使用篇(未完成)

    1.截止到本文(20191104)sklearn没有集成xgboost算法,需要单独安装xgboost库,然后导入使用 xgboost官网安装说明 Pre-built binary wheel for ...

  9. kaggle竞赛-保险转化-homesite

    时间格式的转化 查看数据类型 查看DataFrame的详细信息 填充缺失值 category 数据类型转化 模型参数设定 结论 该项目是针对kaggle中的homesite进行的算法预测,使用xgbo ...

随机推荐

  1. TFSEclipsePlugin-UpdateSiteArchive 手动拷贝

  2. VisualGDB系列10:快速调试Linux应用程序

    根据VisualGDB官网(https://visualgdb.com)的帮助文档大致翻译而成.主要是作为个人学习记录.有错误的地方,Robin欢迎大家指正. 本文介绍如何快速调试GCC构建的Linu ...

  3. 0ctf签到题

    签到题: 题目提示: flag在IRC聊天室里 开启weechat ┌─[root@sch01ar]─[~] └──╼ #weechat 创建服务器 /server add freenode8001 ...

  4. vue-cli脚手架build目录中的dev-server.js配置文件

    本文系统讲解vue-cli脚手架build目录中的dev-server.js配置文件 这个配置文件是命令npm run dev 和 npm run start 的入口配置文件,主要用于开发环境 由于这 ...

  5. 10-08C#基础--进制转换

    (一).数制 计算机中采用的是二进制,因为二进制具有运算简单,易实现且可靠,为逻辑设计提供了有利的途径.节省设备等优点,为了便于描述,又常用八.十六进制作为二进制的缩写.一般计数都采用进位计数,其特点 ...

  6. XMPP 客户端和服务端

    GPLv2授权不能商用 XMPP协议的客户端软件列表 http://zh.wikipedia.org/wiki/XMPP%E5%8D%94%E8%AD%B0%E7%9A%84%E5%AE%A2%E6% ...

  7. 常见浏览器bug以及解决方法

    1.图片下方3像素: (1).描述:在div中插入图片时,图片会将div下方撑大三像素. (2).hack1:将</div>与<img>写在一行上(可以解决ie6/7): (3 ...

  8. sort排序应用

      private static int SortTestObj2Compare(TestSortClass obj1, TestSortClass obj2)        {            ...

  9. 第4章 ZK基本特性与基于Linux的ZK客户端命令行学习 4-2 session的基本原理与create命令的使用

    客户端与服务端之间存在的连接,那么这样的一个连接我们就称之为会话,也就是session.其实就相当于是我们在做JSP或者说是Service的时候,那么服务端是Servlet,客户端使用的是浏览器.浏览 ...

  10. JavaScript基础笔记集合(转)

    JavaScript基础笔记集合   JavaScript基础笔记集合   js简介 js是脚本语言.浏览器是逐行的读取代码,而传统编程会在执行前进行编译   js存放的位置 html脚本必须放在&l ...