在机器学习或者是模式识别其中有一种重要的分类器叫做:SVM 。这个被广泛的应用于各个领域。可是其计算的复杂度以及训练的速度是制约其在实时的计算机应用的主要原因。因此也非常非常多的算法被提出来。如SMO,Kernel的方法。

可是这里要提到的 Regularized
least-squares classification
 是一个和他有着相同的效果的分类器。比較而言计算却比較的简单(We see that a Regularized Least-Squares Classification problem can be solved by solving a single system of linear

equations.)。接下来将对其进行介绍。

首先我们知道终于要求得的结果是: f(x)= <W, x> +b

策略函数:

我们还是要来看一下他的策略:结构风险最小化Function。

通过使用kernel的方法将x 投影到希尔伯特空间(仅仅须要隐式的表示)得到的结果是:

( 这里的alpha就是以下的c啦!)

带入到目标函数以及简化,我们得到终于要求的函数 f*(x):

这就是终于要求的结果。后面额的核函数我们能够採用一些经常使用的核函数处理掉(比方说:高斯核(Gaussian Kernel)等)。

那怎样来解决ci勒?

怎样解c:

大家都知道在SVM其中採用的是合页损失函数(hinge loss Function)。可是非常显然这里是平方损失函数:

同一时候我们对于上面的f*(x)带入到最開始的策略函数其中:

于是我们再来通过求导。令导数等于0。解出这个方程:

有没有发现异常的简单啊!

这里要注意的是: K 是一个n*n的方阵,对于训练来讲,没两个样本(投影到高维空间后)都要做内积才可以得到K。

但事实上作者也说了,能够通过一个线性的问题来解决并不意味着它的时间复杂度和空间复杂度就小了:训练一个Kernel的时间还是须要非常长的。同一时候也须要较大的空间来存储下这种核:K。

可是仍旧是能够通过一些的方法来明显的提高它的性能的。

结果的比較:

文章中提到:It took 10,045 seconds (on a Pentium IV running at 1.5 GhZ) to train 20 one-vs-all SVMs, and only 1,309 seconds to train the equivalent RLSC classifiers. At test time, both SVM and RLSC yield
a linear hyperplane, so testing times are equivalent. 足见速度能够达到SVM的速度的9倍左右,而精度却能够达到相当的程度。

我们再来看一个測试的比較。下表表示的是两种算法在两个数据集上面的错误率:

最上面的数据代表训练的样本数,以下书错误率。能够看得出来RLS的方法还是非常好的。

Regularized least-squares classification(正则化最小二乘法分类器)取代SVM的更多相关文章

  1. paper 130:MatLab分类器大全(svm,knn,随机森林等)

    train_data是训练特征数据, train_label是分类标签.Predict_label是预测的标签.MatLab训练数据, 得到语义标签向量 Scores(概率输出).1.逻辑回归(多项式 ...

  2. MatLab2012b/MatLab2013b 分类器大全(svm,knn,随机森林等)

    train_data是训练特征数据, train_label是分类标签.Predict_label是预测的标签.MatLab训练数据, 得到语义标签向量 Scores(概率输出). 1.逻辑回归(多项 ...

  3. cs231n线性分类器作业 svm代码 softmax

    CS231n之线性分类器 斯坦福CS231n项目实战(二):线性支持向量机SVM CS231n 2016 通关 第三章-SVM与Softmax cs231n:assignment1——Q3: Impl ...

  4. 斯坦福机器学习视频笔记 Week3 逻辑回归与正则化 Logistic Regression and Regularization

    我们将讨论逻辑回归. 逻辑回归是一种将数据分类为离散结果的方法. 例如,我们可以使用逻辑回归将电子邮件分类为垃圾邮件或非垃圾邮件. 在本模块中,我们介绍分类的概念,逻辑回归的损失函数(cost fun ...

  5. Andrew Ng机器学习课程笔记--week3(逻辑回归&正则化参数)

    Logistic Regression 一.内容概要 Classification and Representation Classification Hypothesis Representatio ...

  6. 为什么用linear regression可以做classification

    输出空间 错误衡量方式 能不能直接用linear regression for classification 当成一个分类器回传回去 heuristic(启发式的:试探) 错误衡量 complexit ...

  7. cs231n笔记 (一) 线性分类器

    Liner classifier 线性分类器用作图像分类主要有两部分组成:一个是假设函数, 它是原始图像数据到类别的映射.另一个是损失函数,该方法可转化为一个最优化问题,在最优化过程中,将通过更新假设 ...

  8. Multi-label && Multi-label classification

    Multi-label classification with Keras In today’s blog post you learned how to perform multi-label cl ...

  9. 线性SVM与Softmax分类器

    1 引入 上一篇介绍了图像分类问题.图像分类的任务,就是从已有的固定分类标签集合中选择一个并分配给一张图像.我们还介绍了k-Nearest Neighbor (k-NN)分类器,该分类器的基本思想是通 ...

随机推荐

  1. shell-code-exerciese-1

    &&&&&&&&&&&&&&&&&&&& ...

  2. WIN10配置instantclient

    在PLSQL Developer目录下建立如下bat文件,替换其快捷方式,启动PLSQL Developer: @echo off set path=C:\instantclient-basic-nt ...

  3. PAT Basic 1044

    1044 火星数字 火星人是以 13 进制计数的: 地球人的 0 被火星人称为 tret. 地球人数字 1 到 12 的火星文分别为:jan, feb, mar, apr, may, jun, jly ...

  4. Java设计模式学习三-----工厂模式

    工厂模式 工厂模式(Factory Pattern)是Java中最常用的设计模式之一.这种类型的设计模式属于创建型模式,它提供了一种创建对象的最佳方式. 在工厂模式中,创建对象时不会对客户端暴露创建逻 ...

  5. python模拟浏览器webdriver登陆网站后抓取页面并输出

    关键在于以下两行代码 特别是find_element_by_xpath写法 很多写成 findElementsByXpath不知道是写错了 还是高级版本是这么写的... #webElement = s ...

  6. MHA 高可用集群搭建(二)

    MHA 高可用集群搭建安装scp远程控制http://www.cnblogs.com/kevingrace/p/5662839.html yum install openssh-clients mys ...

  7. 【Luogu】P3567Kur-Couriers(主席树)

    题目链接 数组大小开到一千二百万才过- - 可以把数先离散化再全都加到主席树中. 对于一个区间[from,to] 取中间点mid 看看小于mid的数有多少个,如果个数的两倍<=to-from+1 ...

  8. 【Luogu】P1613跑路(倍增+Floyd)

    题目链接在此 其实我看到这道题一点想法都没有 设f[i][j][k]表示用2i秒能不能从j走到k.如果可以,那j到k就可以一秒走到,它们的路径长度就是1.方程为f[i][j][k]=f[i-1][j] ...

  9. BZOJ 1875 [SDOI2009]HH去散步 ——动态规划 矩阵乘法

    发现t非常大,所以大概就是快速幂一类的问题了, 然后根据k^3logn算了算,发现k大约是边数的时候复杂度比较合适. 发现比较麻烦的就是前驱的记录,所以直接把边看做点,不能走反向边,但是可以走重边,然 ...

  10. asp.net 错误 类型"xxxxx"同时存在于"xxx.dll"和"xxxx.dll" 中

    http://walttoney.blog.163.com/blog/static/127685797201051112839328/错误 类型“System.Web.UI.ScriptManager ...