线性可分支持向量机--SVM (1)

给定线性可分的数据集

假设输入空间(特征向量)为,输出空间为
输入
表示实例的特征向量,对应于输入空间的点;
输出
表示示例的类别。

线性可分支持向量机的定义:

通过间隔最大化或者等价的求出相应的凸二次规划问题得到的分离超平面

以及决策函数:

*什么是间隔最大化呢?
首先需要定义间隔, 下面介绍了函数间隔几何间隔,几何间隔可以理解为训练点到超平面的距离, 二维中就是点到直线的距离,我们要做的就是最小化几何间隔


函数间隔和几何间隔

函数间隔
给定训练数据集T和超平面(w, b)
定义超平面(w,b)关于点(xi, yi)的函数间隔

*函数间隔的理解
描述了点x距离超平面的远近,对于正确分类的点来说,这个式子与函数间隔是相等的。因此,函数间隔可以表示分类预测的正确性和确信度
但是,由于函数间隔会随着w, b 的改变而改变。例如,(w,b)和(2w, 2b)刻画的是同一个超平面,但是函数间隔却变为之前的2倍。因此要引入几何间隔的概念。

定义超平面(w,b)关于训练数据集T的函数间隔

几何间隔
当样本点(xi, yi)被正确分类时,点xi与超平面(w,b)的距离可以表示为:

(可以联系二维空间中点到直线的距离来理解)
所以定义超平面(w,b)关于点(xi, yi)的几何间隔

定义超平面(w,b)关于训练数据集T的几何间隔:

如图:

*几何间隔的理解
几何间隔其实就是对函数间隔的规范化, 联系计算点到直线的公式, 几何间隔计算出来的就是欧几里得距离。

间隔最大化

间隔最大化可以写束最优化问题:

因为我们想要每一个最大化超平面(w,b)关于训练数据集的集合间隔
约束条件表示的是超平面(w, b)距离每个训练样本点的距离都至少是
代入函数间隔和几何间隔的关系, 得到:

不妨取= 1,那么问题就变成了最大化了,而

为什么取呢?下面化简的时候就知道了。
那么我们得到凸二次规划问题如下:

* = 1的原因和影响
原因就是上面说到的函数间隔会随着 w 的改变而改变,所以的取值其实是不会影响最终的结果的,只需要优化 w 就可以了。
影响是, 如果取函数间隔 = 1, 那么满足的点就是支持向量(最上面图中虚线上的两个点)

学习的对偶算法

将上面的二次规划问题转换成对偶问题(参考拉格朗日对偶性(Lagrange duality)),首先引入拉格朗日函数

原始问题是极小极大问题:

对偶问题是极大极小问题:

原理:
通过求对偶问题的最大值即可求得元问题的最小值

对偶问题的求解:

(1)求
对w,b求导得到:

得到Lagrange函数:

即:

(2)求的极大,即是对偶问题:

即对偶问题为:

解出w, b

设求出了最优的一组解
其中至少有一个,可以求出最优的w, b
理由(反证法)(参考拉格朗日乘子(Lagrange multify)和KKT条件):
假如,则由可知,w = 0,这肯定不是最优解
因此, 至少有一个, 求得最优的w, b

分类决策函数可以写成:

算法的综述:

线性可分支持向量机--SVM(1)的更多相关文章

  1. 统计学习:线性可分支持向量机(SVM)

    模型 超平面 我们称下面形式的集合为超平面 \[\begin{aligned} \{ \bm{x} | \bm{a}^{T} \bm{x} - b = 0 \} \end{aligned} \tag{ ...

  2. 线性可分支持向量机与软间隔最大化--SVM(2)

    线性可分支持向量机与软间隔最大化--SVM 给定线性可分的数据集 假设输入空间(特征向量)为,输出空间为. 输入 表示实例的特征向量,对应于输入空间的点: 输出 表示示例的类别. 我们说可以通过间隔最 ...

  3. svm 之 线性可分支持向量机

    定义:给定线性可分训练数据集,通过间隔最大化或等价的求解凸二次规划问题学习获得分离超平面和分类决策函数,称为线性可分支持向量机. 目录: • 函数间隔 • 几何间隔 • 间隔最大化 • 对偶算法 1. ...

  4. 统计学习2:线性可分支持向量机(Scipy实现)

    1. 模型 1.1 超平面 我们称下面形式的集合为超平面 \[\begin{aligned} \{ \bm{x} | \bm{a}^{T} \bm{x} - b = 0 \} \end{aligned ...

  5. 支持向量机(SVM)的推导(线性SVM、软间隔SVM、Kernel Trick)

    线性可分支持向量机 给定线性可分的训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习到的分离超平面为 \[w^{\ast }x+b^{\ast }=0\] 以及相应的决策函数 \[f\le ...

  6. 统计学习:线性支持向量机(SVM)

    学习策略 软间隔最大化 上一章我们所定义的"线性可分支持向量机"要求训练数据是线性可分的.然而在实际中,训练数据往往包括异常值(outlier),故而常是线性不可分的.这就要求我们 ...

  7. 以图像分割为例浅谈支持向量机(SVM)

    1. 什么是支持向量机?   在机器学习中,分类问题是一种非常常见也非常重要的问题.常见的分类方法有决策树.聚类方法.贝叶斯分类等等.举一个常见的分类的例子.如下图1所示,在平面直角坐标系中,有一些点 ...

  8. 机器学习之支持向量机—SVM原理代码实现

    支持向量机—SVM原理代码实现 本文系作者原创,转载请注明出处:https://www.cnblogs.com/further-further-further/p/9596898.html 1. 解决 ...

  9. 复习支持向量机(SVM)没空看书时,掌握下面的知识就够了

    支持向量机(support vector machines, SVM)是一种二类分类模型.它的基本模型是定义在特征空间上的间隔最大的线性分类器:支持向量机还包括核技巧,这使它成为实质上的非线性分类器. ...

随机推荐

  1. 【pwnable.kr】cmd1

    最近的pwnable都是linux操作系统层面的. ssh cmd1@pwnable.kr -p2222 (pw:guest) 首先还是下载源代码: #include <stdio.h> ...

  2. 第二阶段scrum-4

    1.整个团队的任务量: 2.任务看板: 会议照片: 产品状态: 前端制作完成,数据库在制作中.

  3. echarts 柱状图的选中模式实现-被选中变色和再次选中为取消变色

    方法: function barCharShow(curr_dim,divId,result_data){ mutilDim(curr_dim);//维度信息 var paint = initEcha ...

  4. word 2007 文档中添加文件

    1. "插入"->"对象",出现的下拉框中选择"对象" 2.弹出界面 3.切换至"由文件创建",点击"浏 ...

  5. bzoj 1832: [AHOI2008]聚会

    良心题2333 三个点两两求一遍就行,最小肯定是在某2个点的lca处,(肯定让第三个人去找2个人,不能让2个人一起去找第三个人233) #include<bits/stdc++.h> #d ...

  6. OFD系列软件说明(免费试用、QQ交流群:877371250)

    前言 OFD是一个版式文档格式.所谓版式文档格式是版面呈现效果固定的电子文档格式. 我们今天接触到最多的版式文档就是国际通用的PDF. 国内的就是由工业和信息化部软件司牵头中国电子技术标准化研究院成立 ...

  7. 前台图片Canvas压缩上传小结

    需求来源:之前有个提交审核表单的业务,表单中含有大量附件图片,大约有20多张吧,为了省事,采用的同步上传,一次需要上传很多照片,本来单张图片限制为200KB,这样子总图片大小约为5MB左右,想想也可以 ...

  8. HDU _2546 01背包问题

    A - 饭卡 Time Limit:1000MS     Memory Limit:32768KB     64bit IO Format:%I64d & %I64u Submit Statu ...

  9. 高分Essay写作需注意以下几个细节

    目前为止,已经有很多同学问我这个了,所以这次专门来讨论下这个问题.英语essay能达到预期分数吗,答案是肯定的,甚至会超出预期,但是必须注意到几方面,越是细节问题,越容易导致丢分,所以请重视-! 一. ...

  10. PAT Advanced A1021 Deepest Root (25) [图的遍历,DFS,计算连通分量的个数,BFS,并查集]

    题目 A graph which is connected and acyclic can be considered a tree. The height of the tree depends o ...