机器学习基石 2 Learning to Answer Yes/No
机器学习基石 2 Learning to Answer Yes/No
Perceptron Hypothesis Set
对于一个线性可分的二分类问题,我们可以采用感知器 (Perceptron)这种假设集。
这种模型可以用下面的表达式表示出来:

其中不同的向量 \(w\) 代表了不同的假设函数 \(h(x)\),我们的目标是使用一些算法调整 \(w\) 的值,使得假设函数 \(h(x)\) 与我们要预测的函数 \(f(x)\) 尽可能的接近。
我们的想法是:如果 \(h(x)\) 与 \(f(x)\) 足够接近,那么它们作用在训练集 \(D\) 上的结果会是一样的,即对训练集中的 \(x\),有 \(f(x) = h(x)\)。反过来说,如果对所有训练集中的 \(x\),有 \(f(x) = h(x)\),那么在一定程度上,我们可以认为 \(h(x)\) 与 \(f(x)\) 是接近的。
Perceptron Learning Algorithm (PLA)
这个模型中训练 \(w\) 的算法称为感知器算法(Perceptron Learning Algorithm),算法描述如下图:

思想是对预测错误的样本进行修正:
当 \(f(x)=y=+1\) 而预测结果 \(h(x)=sign(w^Tx)=-1\) 时,说明此时 \(w\) 与 \(x\) 的内积过小,夹角过大,需要让 \(w\) 靠近 \(x\),因此将 \(w\) 改为 \(w+x=w+yx\);
当 \(f(x)=y=-1\) 而预测结果 \(h(x)=sign(w^Tx)=+1\) 时,说明此时 \(w\) 与 \(x\) 的内积过大,夹角过小,需要让 \(w\) 远离 \(x\),因此将 \(w\) 改为 \(w-x=w+yx\);
反复修正预测错误的样本点直到所有训练样本都预测正确。
一种可行的算法如下:

Guarantee of PLA
能使用PLA算法的重要前提是样本是线性可分的,即存在 \(w_f\) 使得 \(y_n = sign(w_f^Tx_n)\),下面证明PLA算法是收敛的,即 \(w\) 能收敛到 \(w_f\),即算法能停止下来。
- \(w_f\) 与 \(w_t\) 的内积会单调递增

- \(w_t\) 增长速度有限

以上两点可以推出:
算法更新次数\(T \leq \frac{R^2}{\rho^2}\)
其中\(R^2 = \max \limits_{n}\{f(x)\}, \quad \rho = \min \limits_{n} y_n \frac{w_f^T}{||w_f^T||} x_n\)
总结以下PLA算法

Non-Separable Data
对于数据有噪声时,学习的过程发生了一点改变:

对感知器模型来说,此时可能无法使所有样本都正确分类,因此学习的目标从 \(\arg \limits_{w} y_n = sign(w^Tx_n)\) 变成了 \(\arg \min \limits_{w}\sum {[[y_n \neq sign(w^Tx_n)]]}\) (NP-hard 问题)

于是PLA算法可以改进成Pocket算法:

机器学习基石 2 Learning to Answer Yes/No的更多相关文章
- 机器学习基石 4 Feasibility of Learning
机器学习基石 4 Feasibility of Learning Learning is Impossible? 机器学习:通过现有的训练集 \(D\) 学习,得到预测函数 \(h(x)\) 使得它接 ...
- 机器学习基石 3 Types of Learning
机器学习基石 3 Types of Learning Learning with Different Output Space Learning with Different Data Label L ...
- 机器学习基石 1 The Learning Problem
机器学习基石 1 The Learning Problem Introduction 什么是机器学习 机器学习是计算机通过数据和计算获得一定技巧的过程. 为什么需要机器学习 1 人无法获取数据或者数据 ...
- 機器學習基石(Machine Learning Foundations) 机器学习基石 课后习题链接汇总
大家好,我是Mac Jiang,非常高兴您能在百忙之中阅读我的博客!这个专题我主要讲的是Coursera-台湾大学-機器學習基石(Machine Learning Foundations)的课后习题解 ...
- 机器学习基石(台湾大学 林轩田),Lecture 1: The Learning Problem
课程的讲授从logo出发,logo由四个图案拼接而成,两个大的和两个小的.比较小的两个下一次课程就可能会解释到它们的意思,两个大的可能到课程后期才会解释到它们的意思(提示:红色代表使用机器学习危险,蓝 ...
- 机器学习基石第三讲:types of learning
博客已经迁移至Marcovaldo's blog (http://marcovaldong.github.io/) 刚刚完毕机器学习基石的第三讲.这一讲主要介绍了机器学习的分类.对何种问题应该使用何种 ...
- Coursera机器学习基石 第1讲:The Learning Problem
这门课的授课老师是个台湾人,师从Caltech的Yaser S. Abu-Mostafa,他们共同编撰了<Learning From Data>这本书.Yaser S. Abu-Mosta ...
- 机器学习基石第一讲:the learning problem
博客已经迁移至Marcovaldo's blog (http://marcovaldong.github.io/) Andrew Ng的Machine Learning比較简单,已经看完.林田轩的机器 ...
- (转载)林轩田机器学习基石课程学习笔记1 — The Learning Problem
(转载)林轩田机器学习基石课程学习笔记1 - The Learning Problem When Can Machine Learn? Why Can Machine Learn? How Can M ...
随机推荐
- 在windows下运行spark
1.下载spark:spark-2.0.0-bin-hadoop2.7.tgz 2.解压至D:\bigdata\spark-2.0.0-bin-hadoop2.7 3.配置环境变量 HADOOP_HO ...
- CodeForces758A
A. Holiday Of Equality time limit per test:1 second memory limit per test:256 megabytes input:standa ...
- com.atomikos.icatch.HeurHazardException: Heuristic Exception
com.atomikos.icatch.HeurHazardException: Heuristic Exception: 删除Tomcat bin文件夹下的spring.loglog4j.appe ...
- KB奇遇记(2):缘起
最早听到这家公司的名字,大概还是在好几年前. 正是2012年,之前的在一起灿坤待过的同事LY在这家公司当高层,正好公司规模大了,要上ERP项目.苦于公司没有这方面的人才,而内部IT又太差劲支撑不起来. ...
- W3Cschool学习笔记——CSS3教程
向 div 元素添加圆角: div { border:2px solid; border-radius:25px; -moz-border-radius:25px; /* Old Firefox */ ...
- 特殊字符html,css转义大全
使用方法: 这些字符属于unicode字符集,所以,你的文档需要声明为UTF-8: 下面符号列表的后面有两列编号,它们并不太一样,第一列是用于html的,你需要在前面加上&#符号: 第二列可以 ...
- DllRegisterServer的调用失败的问题解决方法
1'按键盘上的win+x键调出常用命令. 2'选择“命令提示符(管理员)“ 3'在”命令提示符“中输入”regsvr32 c:\Windows\SysWOW64\comdlg32.ocx“或其他ocx ...
- j2se 总结
j2se在学习第二遍的时候,感觉还是比较亲切的.
- Jenkins的安装与系统配置
Jenkins的安装 Jenkins的安装需要一个安装包:http://pan.baidu.com/s/1hqQBruc,也可以去Jenkins官网上下载,Jenkins的官网地址 http://Je ...
- shell变量数学运算
shell变量数学运算 #!/bin/sh # 本脚本说明shell脚本中变量运算的用法 # 错误的用法var=1var=$var+1echo $var 输出:1+1 # 第一种用法,letvar=1 ...