A prediction model that is composed of a set of models is called a model ensemble. Baggging 和Boosting都是模型融合的方法 boosting: 步骤1:所有分布下的基础学习器对于每一条数据相同的权重 步骤2:如果第一个基础的学习算法预测错误,这条数据在下一次的基础学习算法中有更高的权重 步骤3:迭代第2步,直到到达预定的学习器数量或预定的预测精度. Bagging: 从原始样本集中抽取训练集.每轮从
引自http://blog.csdn.net/xianlingmao/article/details/7712217 Jackknife,Bootstraping, bagging, boosting, AdaBoosting, Rand forest 和 gradient boosting 这些术语,我经常搞混淆,现在把它们放在一起,以示区别.(部分文字来自网络,由于是之前记的笔记,忘记来源了,特此向作者抱歉) Bootstraping: 名字来自成语“pull up by your own
Bootstraping: 名字来自成语“pull up by your own bootstraps”,意思是依靠你自己的资源,称为自助法,它是一种有放回的抽样方法,它是非参数统计中一种重要的估计统计量方差进而进行区间估计的统计方法.其核心思想和基本步骤如下:(1) 采用重抽样技术从原始样本中抽取一定数量(自己给定)的样本,此过程允许重复抽样.(2) 根据抽出的样本计算给定的统计量T.(3) 重复上述N次(一般大于1000),得到N个统计量T.(4) 计算上述N个统计量T的样本方差,得到统计量