机器学习算法实践:Platt SMO 和遗传算法优化 SVM

之前实现了简单的SMO算法来优化SVM的对偶问题,其中在选取α的时候使用的是两重循环通过完全随机的方式选取,具体的实现参考《机器学习算法实践-SVM中的SMO算法》。(http://pytlab.github.io/2017/09/01/机器学习算法实践-SVM中的SMO算法/)

本文在之前简化版SMO算法的基础上实现了使用启发式选取α对的方式的Platt SMO算法来优化SVM。另外由于最近自己也实现了一个遗传算法框架GAFT,便也尝试使用遗传算法对于SVM的原始形式进行了优化。

  • 对于本文算法的相应实现,参考:https://github.com/PytLab/MLBox/tree/master/svm

  • 遗传算法框架GAFT项目地址: https://github.com/PytLab/gaft

正文

SMO中启发式选择变量

在SMO算法中,我们每次需要选取一对α来进行优化,通过启发式的选取我们可以更高效的选取待优化的变量使得目标函数下降的最快。

针对第一个α1和第二个α2 Platt SMO采取不同的启发式手段。

第一个变量的选择

第一个变量的选择为外循环,与之前便利整个αα列表不同,在这里我们在整个样本集非边界样本集间进行交替:

1)首先我们对整个训练集进行遍历, 检查是否违反KKT条件,如果改点的αi和xi,yi违反了KKT条件则说明改点需要进行优化。

Karush-Kuhn-Tucker(KKT)条件是正定二次规划问题最优点的充分必要条件。针对SVM对偶问题,KKT条件非常简单:

2)在遍历了整个训练集并优化了相应的α后第二轮迭代我们仅仅需要遍历其中的非边界α. 所谓的非边界α就是指那些不等于边界0或者C的α值。 同样这些点仍然需要检查是否违反KKT条件并进行优化.

之后就是不断地在两个数据集中来回交替,最终所有的α都满足KKT条件的时候,算法中止。

为了能够快速选取有最大步长的α,我们需要对所有数据对应的误差进行缓存,因此特地写了个SVMUtil类来保存svm中重要的变量以及一些辅助方法:

class SVMUtil(object):

'''

Struct to save all important values in SVM.

'''

def __init__(self, dataset, labels, C, tolerance=0.001):

self.dataset, self.labels, self.C = dataset, labels, C

self.m, self.n = np.array(dataset).shape

self.alphas = np.zeros(self.m)

self.b = 0

self.tolerance = tolerance

# Cached errors ,f(x_i) - y_i

self.errors = [self.get_error(i) for i in range(self.m)]

# 其他方法...

...

下面为第一个变量选择交替遍历的大致代码,相应完整的Python实现(完整实现见https://github.com/PytLab/MLBox/blob/master/svm/svm_platt_smo.py):

while (it < max_iter):

pair_changed = 0

if entire:

for i in range(svm_util.m):

pair_changed += examine_example(i, svm_util)

print('Full set - iter: {}, pair changed: {}'.format(i, pair_changed))

else:

alphas = svm_util.alphas

non_bound_indices = [i for i in range(svm_util.m)

if alphas[i] > 0 and alphas[i] < C]

for i in non_bound_indices:

pair_changed += examine_example(i, svm_util)

...

...

第二个变量的选择

SMO中的第二个变量的选择过程为内循环,当我们已经选取第一个α1之后,我们希望我们选取的第二个变量α2优化后能有较大的变化。根据我们之前推导的式子

可以知道,新的α2的变化依赖于|E1−E2|, 当E1为正时, 那么选择最小的Ei作为E2,通常将每个样本的Ei缓存到一个列表中,通过在列表中选择具有|E1−E2|的α2来近似最大化步长。

有时候按照上述的启发式方式仍不能够是的函数值有足够的下降,这是按下述步骤进行选择:

  1. 在非边界数据集上选择能够使函数值足够下降的样本作为第二个变量

  2. 如果非边界数据集上没有,则在整个数据仅上进行第二个变量的选择

  3. 如果仍然没有则重新选择第一个α1

第二个变量选取的Python实现:

def select_j(i, svm_util):

''' 通过最大化步长的方式来获取第二个alpha值的索引.

'''

errors = svm_util.errors

valid_indices = [i for i, a in enumerate(svm_util.alphas) if 0 < a < svm_util.C]

if len(valid_indices) > 1:

j = -1

max_delta = 0

for k in valid_indices:

if k == i:

continue

delta = abs(errors[i] - errors[j])

if delta > max_delta:

j = k

max_delta = delta

else:

j = select_j_rand(i, svm_util.m)

return j

KKT条件允许一定的误差

在Platt论文中的KKT条件的判断中有一个tolerance允许一定的误差,相应的Python实现:

r = E_i*y_i

# 是否违反KKT条件

if (r < -tolerance and alpha < C) or (r > tolerance and alpha > 0):

...

关于Platt SMO的完整实现详见:https://github.com/PytLab/MLBox/blob/master/svm/svm_platt_smo.py

针对之前的数据集我们使用Platt SMO进行优化可以得到:

w = [0.8289668843516077, -0.26578914269411114]

b = -3.9292583040559448

将分割线和支持向量可视化:

可见通过Platt SMO优化出来的支持向量与简化版的SMO算法有些许不同。

使用遗传算法优化SVM

由于最近自己写了个遗传算法框架,遗传算法作为一个启发式无导型的搜索算法非常易用,于是我就尝试使用遗传算法来优化SVM。

使用遗传算法优化,我们就可以直接优化SVM的最初形式了也就是最直观的形式:

顺便再安利下自己的遗传算法框架,在此框架的帮助下,优化SVM算法我们只需要写几十行的Python代码即可。其中最主要的就是编写适应度函数,根据上面的公式我们需要计算数据集中每个点到分割线的距离并返回最小的距离即可,然后放到遗传算法中进行进化迭代。

遗传算法框架GAFT项目地址: https://github.com/PytLab/gaft , 使用方法详见README。

Ok, 我们开始构建种群用于进化迭代。

创建个体与种群

对于二维数据点,我们需要优化的参数只有三个也就是[w1,w2]和b, 个体的定义如下:

indv_template = GAIndividual(ranges=[(-2, 2), (-2, 2), (-5, 5)],

encoding='binary',

eps=[0.001, 0.001, 0.005])

种群大小这里取600,创建种群

population = GAPopulation(indv_template=indv_template, size=600).init()

创建遗传算子和GA引擎

这里没有什么特别的,直接使用框架中内置的算子就好了。

selection = RouletteWheelSelection()

crossover = UniformCrossover(pc=0.8, pe=0.5)

mutation = FlipBitBigMutation(pm=0.1, pbm=0.55, alpha=0.6)

engine = GAEngine(population=population, selection=selection,

crossover=crossover, mutation=mutation,

analysis=[ConsoleOutput, FitnessStore])

适应度函数

这一部分只要把上面svm初始形式描述出来就好了,只需要三行代码:

@engine.fitness_register

def fitness(indv):

w, b = indv.variants[: -1], indv.variants[-1]

min_dis = min([y*(np.dot(w, x) + b) for x, y in zip(dataset, labels)])

return float(min_dis)

开始迭代

这里迭代300代种群

if '__main__' == __name__:

engine.run(300)

绘制遗传算法优化的分割线

variants = engine.population.best_indv(engine.fitness).variants

w = variants[: -1]

b = variants[-1]

# 分类数据点

classified_pts = {'+1': [], '-1': []}

for point, label in zip(dataset, labels):

if label == 1.0:

classified_pts['+1'].append(point)

else:

classified_pts['-1'].append(point)

fig = plt.figure()

ax = fig.add_subplot(111)

# 绘制数据点

for label, pts in classified_pts.items():

pts = np.array(pts)

ax.scatter(pts[:, 0], pts[:, 1], label=label)

# 绘制分割线

x1, _ = max(dataset, key=lambda x: x[0])

x2, _ = min(dataset, key=lambda x: x[0])

a1, a2 = w

y1, y2 = (-b - a1*x1)/a2, (-b - a1*x2)/a2

ax.plot([x1, x2], [y1, y2])

plt.show()

得到的分割曲线如下图:

完整的代码详见: https://github.com/PytLab/MLBox/blob/master/svm/svm_ga.py

总结

本文对SVM的优化进行了介绍,主要实现了Platt SMO算法优化SVM模型,并尝试使用遗传算法框架GAFT对初始SVM进行了优化。

参考

  • Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines

Platt SMO 和遗传算法优化 SVM的更多相关文章

  1. 机器学习算法实践:Platt SMO 和遗传算法优化 SVM

    机器学习算法实践:Platt SMO 和遗传算法优化 SVM 之前实现了简单的SMO算法来优化SVM的对偶问题,其中在选取α的时候使用的是两重循环通过完全随机的方式选取,具体的实现参考<机器学习 ...

  2. 机器学习——支持向量机(SVM)之Platt SMO算法

    Platt SMO算法是通过一个外循环来选择第一个alpha值的,并且其选择过程会在两种方式之间进行交替: 一种方式是在所有数据集上进行单遍扫描,另一种方式则是在非边界alpha中实现单遍扫描. 所谓 ...

  3. MATLAB神经网络(3) 遗传算法优化BP神经网络——非线性函数拟合

    3.1 案例背景 遗传算法(Genetic Algorithms)是一种模拟自然界遗传机制和生物进化论而形成的一种并行随机搜索最优化方法. 其基本要素包括:染色体编码方法.适应度函数.遗传操作和运行参 ...

  4. Matlab遗传算法优化问题求解的演示样例代码

    代码例如以下: function m_main() clear clc Max_gen = 100;% 执行代数 pop_size = 100;%种群大小 chromsome = 10;%染色体的长度 ...

  5. 机器学习实战笔记(Python实现)-05-支持向量机(SVM)

    --------------------------------------------------------------------------------------- 本系列文章为<机器 ...

  6. 【机器学习实战】第6章 支持向量机(Support Vector Machine / SVM)

    第6章 支持向量机 <script type="text/javascript" src="http://cdn.mathjax.org/mathjax/lates ...

  7. 支持向量机-完整Platt-SMO算法加速优化

    完整版SMO算法与简单的SMO算法: 实现alpha的更改和代数运算的优化环节一模一样,唯一的不同就是选择alpha的方式.完整版应用了一些能够提速的方法. 同样使用Jupyter实现,后面不在赘述 ...

  8. 一步步教你轻松学支持向量机SVM算法之案例篇2

    一步步教你轻松学支持向量机SVM算法之案例篇2 (白宁超 2018年10月22日10:09:07) 摘要:支持向量机即SVM(Support Vector Machine) ,是一种监督学习算法,属于 ...

  9. 机器学习实战 [Machine learning in action]

    内容简介 机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存.谋发展的决定性手段,这使得这一过去为分析师和数学家所专属 ...

随机推荐

  1. [C#]使用TcpListener及TcpClient开发一个简单的Chat工具

    本文为原创文章.源代码为原创代码,如转载/复制,请在网页/代码处明显位置标明原文名称.作者及网址,谢谢! 本文使用的开发环境是VS2017及dotNet4.0,写此随笔的目的是给自己及新开发人员作为参 ...

  2. 老男孩Python全栈开发(92天全)视频教程 自学笔记01

    day1课程目录: 开课介绍(1) 开课介绍(2) 开课介绍(3) 电脑简史(1) 电脑简史(2) 计算机结构 day1课程内容梳理: 导师介绍: Alex Li(金角大王):买了一辆特斯拉,喜欢姑娘 ...

  3. P1457 城堡 The Castle

    轻度中毒 原题 :The Castle 以下为题解部分:明明辣么简单的一道题,硬是搞了1.5h,WTF?以下列出本题的一些要点. 搜索(DFS)嘛,染色嘛,统计大小嘛,很容易想,也很更易处理. 接下来 ...

  4. 部分小程序无法获取UnionId原因

    问题背景 通过观察数据,发现有一部分用户是无法获取到UnionId的 也就是接口返回的参数中不包含UnionId参数 看了微信文档的解释,只要小程序在开放平台绑定,就一定会分配UnionId 网上也有 ...

  5. Listview嵌套Listview

    今天做项目,打算模仿淘宝的订单管理,需要Listview嵌套Listview,都是两个控件都是沿着一个方向滑动的,嵌套在一起不幸福,以下是解决方案,打个笔记,以后估计还得用: 其中onMeasure函 ...

  6. 多服务器操作利器 - Polysh

    多台服务器下的痛苦人生 分布式架构下的系统,可以说每个服务都是分别部署在多台服务器上的,有的甚至还需要多机房,在这种架构下可以说可以很好的做到了易扩展.容灾等功能.推荐的服务部署为一服务多机器.一机器 ...

  7. thinkphp实现文件的下载

    首先需要看一下大家使用的Thinkphp的版本,不同的版本使用的方法不同,(在导入公共函数的时候方式不同) 我用的是thinkphp3.2.2版本的,因此直接使用import()函数,直接把使用thi ...

  8. ES6模块化

    关于ES6模块化 历史上,JavaScript 一直没有模块(module)体系,无法将一个大程序拆分成互相依赖的小文件,再用简单的方法拼装起来.其他语言都有这项功能,比如 Ruby 的require ...

  9. form表单提交引发的血案

    最近,公司某条产品线上的一个功能出了问题:点击查询的时候,该页面在IE上直接卡死,chrome上会卡顿一段时间候提交表单进行查询.拿到这个bug单子以后,简单重现了下,基本上定位到是查询操作中的问题, ...

  10. python处理csv文件问题解决贴

    实际工作中,碰到这么个问题:有个软件跑在linux系统上,其中用到一个数据库是csv格式的,但要向这个数据库添加600行新的数据,数据源同样是一个csv格式的文件. 有了目标,开始干活.首先想到的是, ...