前边总结了线性SVM,最终转化为一个QP问题来求解。后来又考虑到非线性SVM,如果特征特别特别多的话,直接使用QP的话求解不了,我们经过一系列的转化,把这一问题转化为训练集大小n量级的QP问题。

http://www.cnblogs.com/futurehau/p/6143178.html

在之前的基础之上,我们继续学习,引入核函数的概念,完全避免了特征数目量级的计算问题。接下来依次分析polynomial Kernel, Gaussian Kernel,并对他们进行对比分析。

一、Kernel 的引入

  之前我们得到对偶问题的QP形式:

  

  这似乎是一个n量级的问题,似乎和特征的个数无关,但是仔细一看,Q矩阵每一项的求解涉及到Z空间的内积,这就是特征个数量级的一个操作。所以我们从这里入手,想想怎样可以简化Z空间内积的计算呢?

  以二次变换为例,我们把X空间映射到Z空间,我们现在看看Z空间上的内积表达式是什么,可以怎么转换到X空间上。

  

  好了,我们发现Z空间上的内积刚好可以转换为X空间上的内积。所以我们就想,我们不需要显示的去先把X空间上的数据计算到空间上,然后训练参数,我们可以直接使用X空间上的参数来计算即可,这样大大降       低了我们的计算复杂度。

  

  这样,上述的转换就叫做Kernel函数。它把之前变换后的空间Z上的内积运算转换为原空间上的内积运算。

  我们再回过头来看看之前的对偶QP问题,Z空间上的哪些内积运算可以转换到X空间上呢?

  

  这样一来,所有的训练,测试都没有直接在Z空间上进行内积运算,所有运算都转换到了X空间上。这样所有运算就和你的特征维度没有关系了。

二、polynomial Kernel

  之前的例子使用的转换系数都是1,那么有没有其他的系数呢?

  加入我们改变一下系数,就能够得到不同形式的核函数。

  

  这些不同形式的核函数都把X映射到同一个Z空间,但区别是内积不同,那么几何定义就不一样了,那么分类的Margin就不同,这样对我们的分类效果就会有很大影响。

  同样,我们列举这些 polynomial:

  

三、Gaussian Kernel

  之前,都是一些有限维度的转换,那么可以可以做到无限多维度的转化呢?借助于exp函数的泰勒展开可以实现。厉害!

  

  这样我们得到Gaussian Kernel:

  

  

  

  如图所示,就是一些列高斯函数的线性组合,如果是正样本,就拔高,如果是负样本,就拖下,随后得到一个能够正确分类的超平面。

  可以看到,g(svm)就是一系列中心在Support Vector上的高斯函数的线性组合。所以gaussian kernel也叫RBF

  注意gama较大的时候还是有可能overfit的。

四、Comparison of Kernels

  4.1 Linear Kernel:

   

  4.2 polynomial kernel: ,一般用在小Q的时候

   

  4.3 Gaussian Kernel: 

   

  4.4 其他kernel

  kernel其实代表了Z空间向量的相似性,但并不是所有可以表示相似性的都可以写为kernel,kernel 需要满足以下条件:

  

  

针对可能存在的SVM过拟合问题,接下来讨论 soft margin SVM。http://www.cnblogs.com/futurehau/p/6165839.html

  

SVM2---核函数的引入的更多相关文章

  1. 6. 支持向量机(SVM)核函数

    1. 感知机原理(Perceptron) 2. 感知机(Perceptron)基本形式和对偶形式实现 3. 支持向量机(SVM)拉格朗日对偶性(KKT) 4. 支持向量机(SVM)原理 5. 支持向量 ...

  2. SVM学习(续)核函数 & 松弛变量和惩罚因子

    SVM的文章可以看:http://www.cnblogs.com/charlesblc/p/6193867.html 有写的最好的文章来自:http://www.blogjava.net/zhenan ...

  3. 支持向量机(SVM)必备概念(凸集和凸函数,凸优化问题,软间隔,核函数,拉格朗日乘子法,对偶问题,slater条件、KKT条件)

    SVM目前被认为是最好的现成的分类器,SVM整个原理的推导过程也很是复杂啊,其中涉及到很多概念,如:凸集和凸函数,凸优化问题,软间隔,核函数,拉格朗日乘子法,对偶问题,slater条件.KKT条件还有 ...

  4. 核型SVM

    (本文内容和图片来自林轩田老师<机器学习技法>) 1. 核技巧引入 如果要用SVM来做非线性的分类,我们采用的方法是将原来的特征空间映射到另一个更高维的空间,在这个更高维的空间做线性的SV ...

  5. SVM学习(续)

    SVM的文章可以看:http://www.cnblogs.com/charlesblc/p/6193867.html 有写的最好的文章来自:http://www.blogjava.net/zhenan ...

  6. 【转】 SVM算法入门

    课程文本分类project SVM算法入门 转自:http://www.blogjava.net/zhenandaci/category/31868.html (一)SVM的简介 支持向量机(Supp ...

  7. 深入理解图优化与g2o:图优化篇

    前言 本节我们将深入介绍视觉slam中的主流优化方法——图优化(graph-based optimization).下一节中,介绍一下非常流行的图优化库:g2o. 关于g2o,我13年写过一个文档,然 ...

  8. SVM算法入门

    转自:http://blog.csdn.net/yangliuy/article/details/7316496SVM入门(一)至(三)Refresh 按:之前的文章重新汇编一下,修改了一些错误和不当 ...

  9. 支持向量机(SVM)简介

    主要内容 一:SVM简介 二:线性分类 三:分类间隔 四:核函数 五:松弛变量 SVM简介 支持向量机(support vector Machine)是由Cortes和Vapnik于1995年首先提出 ...

  10. 支撑向量机(SVM)

    转载自http://blog.csdn.net/passball/article/details/7661887,写的很好,虽然那人也是转了别人的做了整理(最原始文章来自http://www.blog ...

随机推荐

  1. codeforces194b

    link:http://codeforces.com/problemset/problem/334/B #include <iostream> #include <cstdio> ...

  2. cache是什么文件?

    通常人们所说的Cache就是指缓存SRAM. SRAM叫静态内存,"静态"指的是当我们将一笔数据写入SRAM后,除非重新写入新数据或关闭电源,否则写入的数据保持不变. 由于CPU的 ...

  3. 《统计推断(Statistical Inference)》读书笔记——第1章 概率论

    第一章介绍了基本的概率论知识,以下是这一章的思维导图

  4. unity, itween, closed path

  5. Mysql逻辑模块组成

    总的来说,MySQL可以看成是二层架构,第一层我们通常叫做SQL Layer,在MySQL数据库系统处理底层数据之前的所有工作都是在这一层完成的,包括权限判断,sql解析,执行计划优化,query c ...

  6. PC安装了MAC,那么CMD键和OPTION键什么的在哪里?

    OS X中Command键所在的位置对应windows中Alt键的位置,OS X中Option键对应windows中Shift键的位置.如果使用中有不习惯的地方,可以通过设置修改,具体方法如下: 1. ...

  7. 网站tomcat配置

    <?xml version='1.0' encoding='utf-8'?> <!-- Licensed to the Apache Software Foundation (ASF ...

  8. 使用C#对SQLLite进行操作

    1.数据库连接(常用连接方法,示例) 1). 添加引用: System.Data.SQLite.DLL .2). 打开或创建数据库文件: SQLiteConnection.CreateFile(fil ...

  9. [Tex学习笔记]开方

    $$\sqrt[n]{\frac{a}{b}}$$ $$\sqrt[\uproot{7}n]{\frac{a}{b}}$$

  10. RelativeLayout_布局

    RelativeLayout布局 android:layout_marginTop="25dip" //顶部距离 android:gravity="left" ...