Algorithm: Simplified SMO

这个版本是简化版的,并没有采用启发式选择,但是比较容易理解。

输入:

C: 调和系数

tol: 容差 (tolerance)

max passes: $\alpha$ 不改变时的最大迭代次数

$(x^{(1)}, y^{(1)}), . . . , (x^{(m)}, y^{(m)})$: 训练样本

输出:

$\alpha\in\mathbf{R}^m$: 所要求解的 Lagrange 乘子, $\alpha=(\alpha_1,\alpha_2,...,\alpha_m)$

$b\in\mathbf{R}$ : 阈值 b

采用的数学符号标准为:

1、上标表示序数(例如 $(x^{(m)},y^{(m)})$ 表示输入的第m个样本点与类别)

2、下标表示向量的分量或者维度(例如 $w_i$ 表示 w 的第 i 个分量)

伪代码中的变量说明:

num_changed_alphas: 改变的 $\alpha$ 分量的数目

m: 训练样本的数目

$\varepsilon$: 指定的精度

下面是伪代码($\alpha$ 初始值都为0,b 初始值也为0)

◦ 初始化 $\alpha_i = 0, i=1 \ldots m, b = 0$

◦ 初始化 passes = 0, max_passes=20

◦ 初始化 $\varepsilon = 10^{-5}$

◦ $while$ (passes < max_passes)

  ◦ num_changed_alphas = 0

  ◦ $for$ $i = 1 \ldots m$,

    ◦ 计算 $E_i = f(x^{(i)}) − y^{(i)}$, 公式为:$$ \begin{align*} f(x^{(i)}) &=\sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(i)} \rangle \\ E_i &= \sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(i)} \rangle-y^{(i)} \end{align*}$$

    ◦ $if$ $((y^{(i)}E_i < −tol$ && $\alpha_i < C)$ || $(y^{(i)}E_i > tol$ && $\alpha_i > 0))$

      ◦ 随机选择 $j \ne i$

      ◦ 计算 $E_j = f(x^{(j)}) − y^{(j)}$, 公式为:$$ \begin{align*} f(x^{(j)}) &=\sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(j)} \rangle \\ E_j &= \sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(j)} \rangle-y^{(j)} \end{align*}$$

      ◦ 保存旧 $\alpha$: $$\begin{align*}\alpha_i^{(old)} &= \alpha_i \\ \alpha_j^{(old)} &=\alpha_j\end{align*}$$

      ◦ 计算下限与上限: $L, H$, 公式为:$$\begin{cases} L=max(0,\alpha_j-\alpha_i),\; H=min(C, C+\alpha_j - \alpha_i) &if \;\; y^{(i)} \ne y^{(j)} \cr  L=max(0,\alpha_j+\alpha_i-C),\; H=min(C, \alpha_j + \alpha_i) &if \;\; y^{(i)} = y^{(j)}  \end{cases}$$

      ◦ $if \; (L == H)$

        $continue$

      ◦ 计算 $\eta$, 公式为: $$\eta=2\langle x^{(i)},x^{(j)} \rangle - \langle x^{(i)},x^{(i)} \rangle - \langle x^{(j)},x^{(j)} \rangle$$

      ◦ $if$ $(\eta \ge 0)$

        $continue$

      ◦ 计算新的 $\alpha_j$, 公式为: $$\alpha_j^{(new,unc)} := \alpha_j - \frac{y^{(j)}(E_i - E_j)}{\eta}$$

      ◦ 剪辑新的 $\alpha_j$, 公式为:$$\alpha_j^{(new)} := \begin{cases}H &if \;\; \alpha_j^{(new,unc)}\gt H \cr \alpha_j &if \;\; L\le\alpha_j^{(new,unc)}\le H \cr L &if \;\; \alpha_j^{(new,unc)}\lt L\end{cases}$$

      ◦ $if$ $(\left|\alpha_j^{(new)} − \alpha_j^{(old)} \right| \lt \varepsilon)$

        $continue$

      ◦ 计算 $\alpha_i^{(new)}$, 公式为:$$\alpha_i^{(new)} := \alpha_i^{(old)}+y^{(i)}y^{(j)}(\alpha_j^{(old)}-\alpha_j^{(new)})$$

      ◦ 分别计算 $b_1$ 和 $b_2$,公式为:

        $ b_1^{(new)} :=b^{(old)} - E_i - y^{(i)}(\alpha_i^{(new)} - \alpha_i^{(old)})\langle x^{(i)},x^{(i)} \rangle - y^{(j)}(\alpha_j^{(new)} - \alpha_j^{(old)})\langle x^{(i)},x^{(j)} \rangle $

        $ b_2^{(new)} :=b^{(old)} - E_j - y^{(i)}(\alpha_i^{(new)} - \alpha_i^{(old)})\langle x^{(i)},x^{(j)} \rangle - y^{(j)}(\alpha_j^{(new)} - \alpha_j^{(old)})\langle x^{(j)},x^{(j)} \rangle $

      ◦ 计算 b,公式为:$$ b := \begin{cases} b_1 &if \;\; 0 \lt \alpha_i^{(new)} \lt C \cr b_2 &if \;\;0 \lt \alpha_j^{(new)} \lt C \cr \frac{b_1+b_2}{2} &otherwise \end{cases} $$

      ◦ num_changed_alphas := num_changed_alphas + 1

    ◦ $end$ $if$

  ◦ $end$ $for$

  ◦ $if$ (num changed alphas == 0) //此时 $\alpha$ 的每一个分量都不发生变化了,然后看外层循环(第一个变量)发生变化后的状况

    passes := passes + 1

  ◦ $else$

    passes := 0

  ◦ $end$ $if$

◦ $end \; while$

SMO(Sequential Minimal Optimization) 伪代码(注释)的更多相关文章

  1. SMO优化算法(Sequential minimal optimization)

    原文:http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988419.html SMO算法由Microsoft Research的John C. ...

  2. Jordan Lecture Note-8: The Sequential Minimal Optimization Algorithm (SMO).

    The Sequential Minimal Optimization Algorithm (SMO) 本文主要介绍用于解决SVM对偶模型的算法,它于1998年由John Platt在论文“Seque ...

  3. sequential minimal optimization,SMO for SVM, (MATLAB code)

    function model = SMOforSVM(X, y, C ) %sequential minimal optimization,SMO tol = 0.001; maxIters = 30 ...

  4. Support Vector Machine (2) : Sequential Minimal Optimization

    目录 Support Vector Machine (1) : 简单SVM原理 Support Vector Machine (2) : Sequential Minimal Optimization ...

  5. Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines 论文研读

    摘要 本文提出了一种用于训练支持向量机的新算法:序列最小优化算法(SMO).训练支持向量机需要解决非常大的二 次规划(QP)优化问题.SMO 将这个大的 QP 问题分解为一系列最小的 QP 问题.这些 ...

  6. Sequential Minimal Optimization (SMO) 算法

    SVM 最终关于 $a$ 目标函数为凸优化问题,该问题具有全局最优解,许多最优化算法都可以解决该问题,但当样本容量相对很大时,通常采用 SMO 算法(比如 LIBSVM),该算法为启发式算法,考虑在约 ...

  7. Sequential Minimal Optimization(SMO,序列最小优化算法)初探

    什么是SVM SVM是Support Vector Machine(支持向量机)的英文缩写,是上世纪九十年代兴起的一种机器学习算法,在目前神经网络大行其道的情况下依然保持着生命力.有人说现在是神经网络 ...

  8. SMO算法(转)

    作者:[已重置]链接:https://www.zhihu.com/question/40546280/answer/88539689来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请 ...

  9. SMO算法精解

    本文参考自:https://www.zhihu.com/question/40546280/answer/88539689 解决svm首先将原始问题转化到对偶问题,而对偶问题则是一个凸二次规划问题,理 ...

随机推荐

  1. python面对对象编程----2:__init__

    面对对象编程估计我们最早接触到的就是__init__了,也就是实例的初始化处理过程: 1:来看看最基础的__init__ class Card(object): #抽象类Card,并不用于实例化 de ...

  2. DotNet中的计时器线程计时器

    转载自:http://hi.baidu.com/wingingbob/item/9f1c9615f3b24d5f2b3e225c 基于多线程设计,计时器工作在ThreadPool线程上,存在事件的重入 ...

  3. IP V4地址分类

    IP V4地址 共分为五类: A类地址范围:1.0.0.1---126.255.255.254 B类地址范围:128.0.0.1---191.255.255.254 C类地址范围:192.0.0.1- ...

  4. goldengate单向复制文档

    1:实验环境 2:实验步骤 --下面的2.1-2.2步骤,都需要在源端和目标端分别执行. 2.1:准备工作 2.1.1 建表空间 create tablespace ogg datafile '/u0 ...

  5. 配置CAS错误No Certificate file specified or invalid file format

    配置tomcat证书 keystore文件后启动一直报错:(tomcat版本:apache-tomcat-6.0.43) tomcat配置: <Connector port="8443 ...

  6. 快速幂:quickpow

    众所周知,快速幂是优化对数的次方运算的最普遍手段.在学习快速幂的思想时,其分治思想容易让大家用简单的递归实现. 但其实,除了递归之外,更好的方法会是简单的 WHILE循环.下面贴代码: #includ ...

  7. CSS的力量

    CSS(Cascading Style Sheet)级联样式表,是一种美观网页设计的解决方案,也是W3C推荐的标准,他可以是我们的网页设计更灵活,更美观,使设计人员对内容的设计和样式的设计分离,使设计 ...

  8. 自己动手写框架——IoC的实现

    先看看 IoC百度百科 优化过程 namespace Test { class Program { static void Main(string[] args) { //场景 某公司客服要回访一些客 ...

  9. phpcms v9开源开发框架基础mvc解读

    根据对mvc的了解 简要写个mvc框架 也谈不上框架 希望对新手有帮助 简单的解析下mvc  你可以这样了解 m模型也就是数据库操作 v视图  c控制器 通过url来判断调用m和v来完成请求,本身没数 ...

  10. 文件头 MAGE_FILE_HEADER

    IMAGE_FILE_HEADER这个结构的定义如下: typedef struct _IMAGE_FILE_HEADER { 00h WORD Machine; //运行平台 02h WORD Nu ...