ML week 1 2


一、关于machine learning的名词

学习

从无数数据提供的E:experience中找到一个函数使得得到T:task后能够得到P:prediction

监督学习

experience中的数据都是有t和p的,计算机通过t和p得到函数

1.分类

p是明确的类 如:书有小说,教科书,故事书

2.回归

p是线性的,如:书的价格

非监督学习

experience中的数据只有t没有p,计算机仅通过t得到可以分成不同类的p函数

1.聚类

将产生的结果分成不同的集合,每个集合中的对象相似

二、单元线性回归方程与cost fnction

单元线性回归方程

单元 J() (cost function)

cost function的结果(训练拟合度),越小拟合度越好

梯度下降算法与单元cost function

梯度下降算法

  • alpha为学习速率
  • 求J的偏导可以看出当前距离局部最低点远近程度
  • thetaj为单元cost function中的参数,通过梯度下降法迭代调整参数,达到局部最低点

1.使用梯度下降法迭代

因为需要让J逐渐减小,所以要使用梯度下降

结合cost function和梯度下降算法(下图)

  • iteration J中的所有参数应同时更新(下图)

  • 我们常称x为feature(关联特征方程中的特征),h(x)为hypothesis

2.

alpha*J 得到的值并不是一个固定的值,随着迭代,J会越来越小接近0(拟合程度越来越好,下降的越少,逐渐接近局部最优解)

3.alpha也在不断变化

如果alpha无限大,虽然刚开始下降很快,但可能会遇到下图overshoot minimum现象这个问题,所以alpha在算法中应自适应调整

4. alpha 应如何调整

  • 1.自动收敛法为根据J(theta)下降小于10-3,则缩小alpha
  • 2.调试收敛法,根据迭代次数,或者J(theta)上升了则需要下降alpha(如下图几种需要降低alpha)(推荐)

三、根据数据建立多元线性高次回归方程

1.样本表中得到信息

从图中可以得到信息:

  • Y1~Xn指输出变量
  • X1~Xn指样本变量,在h(theta)中为特征变量
  • M:样本个数
  • N:特征变量个数

2.多元一次线性回归方程

  • theta指的是参数
  • X0默认0
  • X1~Xn指的是一组数据的n个特征变量
  • 若有X(2),(2)指的是第二个样本

3.特征缩放 feature scaling(重要)

当不同的特征值之间数据差距过大的时候,可能造成梯度下降很难到达最低点(这里不做介绍)

所以在使用h(theta)时,应先进行feature scaling

  • 数据之间越接近下降越容易
  • 数据应尽量缩小到-1和1左右(不要求很准确,(-3,3 )(-1/3,1/3)都可以,但不能 太小如-0.001 或 太大如100)
  • 常用方法:
   x'=\frac{x-a}{b}

a:{x}特征平均值


b:max(x)-min(x)或者方差

4.

当特征值有多个的时候,可以将特征值合并

例: 由房子的长宽特征预计价格,可以变为用房子的面积预计价格

5.

当样本数据如上图所示明显不符合线性,则使用高次的特征方程,如下图

6.疑问

  1. 两个特征值的合并是否一定要符合现实逻辑,比如长宽合成面积?
  2. 如果结果就是需要长宽分别和价格之间的关系怎么办?
  3. 上图中绿线是因为蓝线会在后方下降才改的,但没有数据的情况下谁都不能确定会是怎么样的,所以我觉得这样改没有意义,结果需要确定一个可预测价格范围(和给的数据样本差不多的范围)?
  4. 是否只有在单一变量的时候才能将它化成有高次的特征方程?

四、 多元线性回归与梯度下降

1. 多元cost function

  • 可以看下图,这两个式子等价于上式

2.结合特征方程和cost function

  • 将多元特征方程带入cost function可得到拟合程度J(theta)

3.多元情况下 梯度下降方程

4.

  • 和单元一样,多元也要同时更新
  • 可以观察一下theta0可以发现由于X0=1,所以theta0式子和单元情况下一样

五、正规方程(normal equation)

除了梯度下降法的另一种方法,也可以找到局部最优解

正规方程

\theta = (X^T X)^{-1}X^T Y

计算步骤

  • 从表格中提取信息
Size(feet2) Number of
bedrooms
Number of
floors
Age of
house(years)
Price(*1000)
x0 x1 x2 x3 x4 y
1 2104 5 1 45 460
1 1416 3 2 40 232
1 1534 3 2 30 315
1 852 2 1 36 178
  • 化成矩阵形式

  • 代入正规方程

比较梯度下降和正规方程优劣势

梯度下降 正规方程
需要选择α 不需要选择α
需要许多迭代 不需要迭代
O(KN2) O(N3),需要计算逆矩阵XTX
当N较大时工作正常 如果N非常大会很慢

当n<10,000时,适合用正规方程
矩阵不可逆没关系,octave会算出伪逆,结果是一样的

Machine Learning 第一二周的更多相关文章

  1. Machine Learning - 第6周(Advice for Applying Machine Learning、Machine Learning System Design)

    In Week 6, you will be learning about systematically improving your learning algorithm. The videos f ...

  2. Machine Learning - 第3周(Logistic Regression、Regularization)

    Logistic regression is a method for classifying data into discrete outcomes. For example, we might u ...

  3. Machine Learning第十一周笔记:photo OCR

    博客已经迁移至Marcovaldo's blog (http://marcovaldong.github.io/) 刚刚完毕了Cousera上Machine Learning的最后一周课程.这周介绍了 ...

  4. Machine Learning第十周笔记:大规模机器学习

    博客已经迁移到Marcovaldo's blog (http://marcovaldong.github.io/) 刚刚完毕了Andrew Ng在Cousera上的Machine Learning的第 ...

  5. Machine Learning – 第2周(Linear Regression with Multiple Variables、Octave/Matlab Tutorial)

    Machine Learning – Coursera Octave for Microsoft Windows GNU Octave官网 GNU Octave帮助文档 (有900页的pdf版本) O ...

  6. Machine Learning - 第7周(Support Vector Machines)

    SVMs are considered by many to be the most powerful 'black box' learning algorithm, and by posing构建 ...

  7. Machine Learning - 第5周(Neural Networks: Learning)

    The Neural Network is one of the most powerful learning algorithms (when a linear classifier doesn't ...

  8. Machine learning 第7周编程作业 SVM

    1.Gaussian Kernel function sim = gaussianKernel(x1, x2, sigma) %RBFKERNEL returns a radial basis fun ...

  9. Machine learning第6周编程作业

    1.linearRegCostFunction: function [J, grad] = linearRegCostFunction(X, y, theta, lambda) %LINEARREGC ...

随机推荐

  1. 关于UTF-8和GBK编码的转换

    $oldname=mb_convert_encoding($_POST['oldname'], "GBK" , "UTF-8");//将变量转码为GBK,已知原 ...

  2. Buffer --缓冲器

    一. 启动Buffer缓冲器 node 输入 buffer 创建一个新的buffer var buf = new buffer(''hello word) 查看buf的长度 buf.length 运行 ...

  3. GMA Round 1 新年的复数

    传送门 新年的复数 已知$\left\{\begin{matrix}A>B>0\\ AB=1\\ (A+B)(A-B)=2\sqrt{3}\end{matrix}\right.$ 求$(A ...

  4. [LeetCode] Similar RGB Color 相似的红绿蓝颜色

    In the following, every capital letter represents some hexadecimal digit from 0 to f. The red-green- ...

  5. 纯js自动批量引入js、css插件,支持自定义参数

    //autoload.js ;! function(e) { var autoload = e.autoload || {}; e.autoload = autoload; e.autoload = ...

  6. scheduling while atomic和bad: scheduling from the idle thread(转)

    https://blog.csdn.net/shanzhizi/article/details/22949121 https://blog.csdn.net/wwwtovvv/article/deta ...

  7. 总结-shell脚本

    执行脚本从 svn 检出项目 vi ace.sh #!/bin/bash svn export svn://127.0.0.1/ace/demo /ace/demo 设置脚本可执行 chmod +x ...

  8. 让Delphi的TRichEdit支持新标准

    先说明, 不是直接让TRichedit支持, 而是派生出一个类支持 原理就是, IDE自带的richedit使用的是2.0版本(RICHEDIT20A/RICHEDIT20W), 这个版本虽然支持图片 ...

  9. centos 7 防火墙操作

    1.查看防火墙状态 firewall-cmd --state 2.开启防火墙 systemctl start firewalld.service 3.关闭防火墙 systemctl stop fire ...

  10. Spark入门到精通--(外传)Cloudera CDH5.5.4搭建

    http://www.mamicode.com/info-detail-601202.html continue...