模式识别笔记4-集成学习之AdaBoost
目前集成学习(Ensemble Learning) 分为两类:
- 个体学习器间存在强依赖关系、必须串行化生成的序列化方法:Boosting
- 个体学习器间不存在强依赖关系,可同时生成的并行化方法:Bagging 和 随机森林
这里先来讲下代表Boosting家族的AdaBoost。
Boosting 是一族可以将弱学习器提升为强学习器的算法。
算法机制:
从初始训练集训练一个基学习器(Base Learner) ,根据基学习器的表现对训练样本分布进行调整,对做错的样本赋予更大的权重,基于调整后的样本分布训练下一个基学习器,直到基学习器的数目达到指定的值 \(T\),,同时进行学习器权重调整。
1. AdaBoost分类算法流程
假设我们有:
训练集 \(D=\{(x_1, y_1), (x_2, y_2), \cdots, (x_m, y_m)\}\)
训练轮数(学习器数目): \(T\)
基学习器 \(h_t(x), t=\{1,2,3,\cdots,T\}\) ,对应于学习算法
基学习器权重 \(\alpha_t\)
样本分布 \(\mathcal D\), 训练集在第 \(t\) 个分类器上的样本权重为:
\[
\notag
\mathcal{D}_t= (w_{t1},w_{t2},\cdots, w_{tm})
\]
针对以上条件,AdaBoost的算法流程如下:
\[
\begin{align}
&\mathcal D_1 =1/m\\
&\text{for }t = 1,2, \cdots,T \text{ do}\notag \\
&\ \ \ \ e_t = P(h_t(x_i)\neq y_i) = \sum_{i=1}^mw_{ti}I(h_t(x_i)\neq y_i)\\
&\ \ \ \ \alpha_t = \frac{1}{2}\ln(\frac{1-e_t}{e_t})\\
&\ \ \ \ \text{update distribution }D_{t+1}: \notag \\
&\ \ \ \ \ \ \ \ w_{t+1,i} = \frac{w_{t,i}}{Z_t}\times\exp(-\alpha_ty_ih_t(x_i)) \text{ for } i=1,2,\cdots,m\\
&\text{end for} \notag
\end{align}
\]
根据这个算法,我们一步步讲AdaBoost的流程。
(1) 初始化权重
对于每个样本,我们令其的初始化权重均为 \(\frac{1}{m}\) 。
对于指定的基学习器数目 \(T\),我们知道Boosting 是串行化训练,每一个基学习器都是基于上一个已训练的基学习器继续训练得到的,所以接下来要做 \(T\) 个循环
(2) 获得集合分类误差
以二分类 \(\{+1,-1\}\)为例(多分类是二分类的推广),第 \(t\) 个基学习器在训练集上的加权误差即如公式(2)所示。
(3) 基学习器获得权重系数
由公式(3)可以得到当前基学习器的权重系数。
由公式可以知道,误差率越高,则当前基学习器的权重系数越小。至于为什么使用这个系数公式,我们放到Adaboost的损失函数优化的时候再讲。
(4) 更新样本权重
单独把公式(4)拿出来讲:
\[
\begin{align}
w_{t+1,i} = \frac{w_{t,i}}{Z_t}\times\exp(-\alpha_ty_ih_t(x_i))
\end{align}
\]
其中 \(Z_t\) 是归一化因子:
\[
\begin{align}
Z_t = \sum_{i=1}^mw_{t,i}\times \exp(-\alpha_ty_ih_t(x_i))
\end{align}
\]
可以看到,如果第 \(i\) 个样本分类错误,则 有:
\[
\begin{align}
y_ih_t(x_i)<0 & \Rightarrow \exp(-\alpha_i y_ih_t(x_i))>1\\
&\Rightarrow w_{t+1,i}>w_{t,i}
\end{align}
\]
则错误分类的样本会在下一个基学习器的训练中,在数据中占有更高的比重。具体为什么用这个权重更新公式,还是放到损失函数优化的时候讲。
(5) 最终的分类策略
最终的强分类器采用了加权平均:
\[
\begin{align}
H(x)=\text{sign}(\sum_{t=1}^T\alpha_th_t(x))
\end{align}
\]
2. AdaBoost损失函数
AdaBoost使用指数损失函数:
\[
\begin{align}
\ell _{\exp}(H|\mathcal D)=\sum_{i=1}^m\exp (-y_iH_T(x))
\end{align}
\]
通过最小化这个损失函数,我们可以推导出基学习器的权重系数更新策略和样本权重更新策略。至于为什么最小化指数函数误差就可以最小化分类误差,将在最后推导。
基学习器权重更新策略推导
我们知道,\(t\) 轮训练获得的基学习器是由上一个轮的学习器所得,即有:
\[
\begin{align}
H_t(x)=H_{t-1}(x)+\alpha_th_t(x)
\end{align}
\]
最小化 \(t\) 轮学习后得到的强分类器损失:
\[
\begin{align}
(\alpha_t, h_t(x) )=\arg\min\limits_{\alpha, h}\sum_{i=1}^m\exp(-y_i(H_{t-1}(x)+\alpha_th_t(x)))
\end{align}
\]
我们令 \(w_{ti}’=\exp(-y_iH_{t-1}(x))\),显然,它的值不依赖于 $\alpha_t $ 和 \(h_t(x)\), 仅仅依赖于 \(H_{t-1}(x)\), 随着迭代改变。
带回式子(12),得
\[
\begin{align}
(\alpha_t, h_t(x) )=\arg\min\limits_{\alpha, h}\sum_{i=1}^mw_{ti}'\exp(-y_i\alpha_th_t(x))
\end{align}
\]
为了极小化这个损失函数,我们需要极小化第 \(t\) 个分类器误差。即:
\[
\begin{align}
h_t(x)=\arg\min \limits_{h}\sum_{i=1}^mw_{ti}'I(y_i\neq h(x_i))
\end{align}
\]
将(14)带入损失函数:
\[
\begin{align}
\notag \sum_{i=1}^mw_{ti}'\exp(-y_i\alpha_th_t(x))&=\sum_{y_i=h_t(x_i)}w_{ti}'e^{-\alpha}+\sum_{y_i\neq h_t(x_i)}w_{ti}'e^\alpha\\
&=\sum_{i=1}^mw_{ti}'e^{-\alpha}-\sum_{y_i\neq h_t(x_i)}w_{ti}'e^{-\alpha}+\sum_{y_i\neq h_t(x_i)}w_{ti}'e^\alpha\\
\notag &=(e^\alpha-e^{-\alpha})\sum_{y_i\neq h_t(x_i)}w_{ti}'+e^{-\alpha}\sum_{i=1}^m w_{ti}'
\end{align}
\]
对于(15)求偏导,令其为0,得:
\[
\begin{align}
(e^\alpha+e^{-\alpha})\sum_{y_i\neq h_t(x_i)}w_{ti}'-e^{-\alpha}\sum_{i=1}^m w_{ti}'=0
\end{align}
\]
在基学习器的迭代中,每轮的分类误差为:
\[
\begin{align}
e_t = \sum_i^m w_{ti}I(y_i\neq h_t(x_i))=\sum_{y_i\neq h_t(x_i)}w_{ij}
\end{align}
\]
注意到 :
\[
\begin{align}
e_t = \frac{ \sum_i^m w_{ti}I(y_i\neq h_t(x_i))}{\sum_{i=1}^m w_{ti}'}
\end{align}
\]
则,式(16)变为:
\[
\begin{align}
(e^{\alpha_t}+e^{-\alpha_t})e_t - e^{-\alpha_t}=0
\end{align}
\]
解得:
\[
\begin{align}
\alpha_t = \frac{1}{2}\ln \left( \frac{1-e_t}{e_t}\right)
\end{align}
\]
样本权重更新策略推导
根据上一节自定义的 \(w_{ti}'\),我们知道它与 权重参数只差一个归一化因子 \(Z_t\)。有:
\[
\begin{align}
w_{t+1,i}'&=\exp (-y_iH_t(x))\\
&=\exp(-y_i(H_{t-1}(x)+\alpha_th_t(x)))\\
&=\exp(-y_iH_{t-1}(x)·\exp(-y_i\alpha_th_t(x))\\
&=w_{t,i}'·\exp(-y_i\alpha_th_t(x))
\end{align}
\]
最小化指数函数误差=最小化分类误差?
最后讲下为什么最小化指数函数误差=最小化分类误差。
回顾一下指数函数误差。
\[
\begin{align}
\ell _{\exp}(H|\mathcal D)=\sum_{i=1}^m\exp (-y_iH_T(x))
\end{align}
\]
为了最小化误差,我们对 \(H(x)\)求偏导:
\[
\nabla H(x)=e^{H(x)}P(y=-1|x)-e^{-H(x)}P(y=+1|x)
\]
令 \(\nabla H(x)=0\), 解得:
\[
\begin{align}
H(x)&=\frac{1}{2}\ln\frac{P(y=+1|x)}{P(y=-1|x)}
\end{align}
\]
则最终强分类器:
\[
\begin{align}
\text{sign}(H(x))&=\text{sign}\left(\frac{1}{2}\ln\frac{P(y=+1|x)}{P(y=-1|x)} \right)\\
&=\mathop{\text{arg max}} \limits_{y\in\{+1,-1\}}P(y|x)
\end{align}
\]
这意味着最终强分类器达到了贝叶斯最优错误率。换言之,若指数函数最小化,则分类错误率也最小化。
参考资料
- 集成学习之Adaboost算法原理小结
- 《机器学习》.周志华
模式识别笔记4-集成学习之AdaBoost的更多相关文章
- 集成学习值Adaboost算法原理和代码小结(转载)
在集成学习原理小结中,我们讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类: 第一个是个体学习器之间存在强依赖关系: 另一类是个体学习器之间不存在强依赖关系. 前者的代表算法就是提升(bo ...
- 集成学习之Adaboost算法原理小结
在集成学习原理小结中,我们讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系.前者的代表算法就是是boostin ...
- 集成学习之AdaBoost
AdaBoost 当做出重要决定时,大家可能会考虑吸取多个专家而不只是一个人的意见,机器学习也是如此,这就是集成学习的基本思想.使用集成方法时有多种形式:可以是不同算法的集成,也可以是同一算法在不同设 ...
- 集成学习之Adaboost算法原理
在boosting系列算法中,Adaboost是最著名的算法之一.Adaboost既可以用作分类,也可以用作回归. 1. boosting算法基本原理 集成学习原理中,boosting系列算法的思想:
- 谈谈模型融合之一 —— 集成学习与 AdaBoost
前言 前面的文章中介绍了决策树以及其它一些算法,但是,会发现,有时候使用使用这些算法并不能达到特别好的效果.于是乎就有了集成学习(Ensemble Learning),通过构建多个学习器一起结合来完成 ...
- 机器学习回顾篇(13):集成学习之AdaBoost
.caret, .dropup > .btn > .caret { border-top-color: #000 !important; } .label { border: 1px so ...
- 【笔记】集成学习入门之soft voting classifier和hard voting classifier
集成学习入门之soft voting classifier和hard voting classifier 集成学习 通过构建并结合多个学习器来完成学习任务,一般是先产生一组"个体学习器&qu ...
- 集成学习算法——adaboost
adaboost是boosting类集成学习方法中的一种算法,全称是adaptive boost,表示其是一种具有自适应性的算法,这个自适应性体现在何处,下面来详细说明. 1.adaboost算法原理 ...
- 机器学习—集成学习(Adaboost)
一.原理部分: 二.sklearn实现: from sklearn.ensemble import AdaBoostClassifier from sklearn.datasets import lo ...
随机推荐
- 深入JVM分析spring-boot应用hibernate-validator
问题 可重现的Demo代码:demo.zip 最近排查一个spring boot应用抛出hibernate.validator NoClassDefFoundError的问题,异常信息如下: Caus ...
- 部署点评Cat监控项目
在项目中监控代码运行的状况,可以采用点评的Cat项目来监控整个项目,但是按照官方的文档来部署cat,总会遇到各种问题,讲解的也不够简明清楚,现在用一个单机来部署运行cat监控项目. 首先,到项目的Gi ...
- String是值传递还是引用传递
String是值传递还是引用传递 今天上班时,同事发现了一个比较有意思的问题.他把一个String类型的参数传入方法,并在方法内改变了引用的值. 然后他在方法外使用这个值,发现这个String还是之前 ...
- EF生成模型出现异常:表“TableDetails“中列“IsPrimaryKey”的值为DBNull解决方法
Entity Framework连接MySQL时:由于出现以下异常,无法生成模型:"表"TableDetails"中列"IsPrimaryKey"的值 ...
- jQuery学习之旅 Item6 好用的each()
1.javascript 函数的调用方式 首先来研究一下jquery的each()方法的源码,在这之前,先要回顾一下javascript函数具体调用样式: 普通函数调用 setName(); 可以作为 ...
- Android 增强版百分比布局库 为了适配而扩展
转载请标明出处: http://blog.csdn.net/lmj623565791/article/details/46767825: 本文出自:[张鸿洋的博客] 一 概述 上周一我们发布了Andr ...
- reader-write.go
{ return n, err } r.bucket.Wait(int64(n)) return n, err } type writer struct { ...
- 从一个例子了解window.onload、$(function(){})、$(window).load(function(){})的加载顺序
最近遇到一个轮播需求: 1. ajax请求服务器,返回json,判断json数据里每一项中isFix属性是0还是1,0表示不轮播,1表示需要轮播. 2. 当isFix属性为0的时候,表示该图片不轮播, ...
- [HNOI2015]菜肴制作 拓扑序
逆序最大字典序拓扑序 反向建边,逆序字典序最大.. #include<cstdio> #include<cstring> #include<iostream> #i ...
- WebGL学习之纹理贴图
为了使图形能获得接近于真实物体的材质效果,一般会使用贴图,贴图类型主要包括两种:漫反射贴图和镜面高光贴图.其中漫反射贴图可以同时实现漫反射光和环境光的效果. 实际效果请看demo:纹理贴图 2D纹理 ...