Andrew Ng机器学习课程笔记--week8(K-means&PCA)
Unsupervised Learning
本周我们讲学习非监督学习算法,会学习到如下概念
- 聚类(clustering)
- PCA(Principal Componets Analysis主成分分析),用于加速学习算法,有时在可视化和帮助我们理解数据的时候会有难以置信的作用。
一、内容概要
- Clustering
- K-Means Algorithm
- Optimization Objective
- Random Initialization
- Choosing The Number of Clusters
- Dimensionality Reduction(降维)
- Motivation
- PCA(主成分分析)
- Applying PCA
二、重点&难点
1. Clustering
1) K-Means Algorithm
首先需要知道的是无监督学习下,数据是没有标签的,所以可视化数据后是下面这样的效果(只有一种颜色)

K-Means算法步骤如下:
1.随机分配聚类中心(cluster centroid)
假设我们知道数据可以分为两类(这样做为了方便讨论),所以我们随机分配两个聚类中心(如下图一个红色,一个蓝色)。
2.聚类分配
遍历每一个数据x计算出其离哪个中心点更近,更近的标上和那个中心点相同的颜色。

3.移动聚类中心
完成步骤2后,计算每个聚类所有数据点的中心,该点即为新的聚类中心。
一般来说,求聚类中心点的算法你可以很简的使用各个点的(X,Y)坐标的平均值。

不过,另有三个求中心点的的公式:
1)Minkowski Distance公式——λ可以随意取值,可以是负数,也可以是正数,或是无穷大。
\[d_{ij}=\sqrt{ \sum_{k=1}^{n}|x_{ik} - y_{jk}|^λ }\]
2)Euclidean Distance公式——也就是第一个公式λ=2的情况
\[d_{ij}=\sqrt{ \sum_{k=1}^{n}|x_{ik} - y_{jk}|^2 }\]
3)CityBlock Distance公式——也就是第一个公式λ=1的情况
\[d_{ij}=\sum_{k=1}^{n}|x_{ik} - y_{jk}| \]
这三个公式的求中心点有一些不一样的地方,我们看下图(对于第一个λ在0-1之间)。



(1)Minkowski Distance (2)Euclidean Distance (3) CityBlock Distance
上面这几个图的大意是他们是怎么个逼近中心的,第一个图以星形的方式,第二个图以同心圆的方式,第三个图以菱形的方式。
4.重复2,3步骤,直到收敛,即中心不再变化或变化范围达到设定阈值
总结起来就是:

m:样本数据集的大小
d\(c^{(i)}\):第i个数据d\(x^{(i)}\)所属聚类的下标
d\(μ_k\):第k个聚类中心点
2) Optimization Objective
是的,k-means也有优化目标函数,如下:
\[minJ_(c^{(1)},……c^{(m)},μ_1,……μ_k)=\frac{1}{m}\sum_{i=1}^{m}{||x^{(i)}-μ_{c^{(i)}}||^2}\]
3) Random Initialization
前面的步骤中都提到了随机初始化聚类中心,但是这样可能会得到局部最优点而不是全局最优,如下图所示:

所以为了解决这个问题,我们先需要重复多次的随机初始化,然后看最后得到的结果中是否有很多结果是相同的,如果有那么很可能就是全局最优解。
算法如下

4) Choosing The Number of Clusters
本小节将讨论聚类个数K的如何选取。
- Elbow Method(肘部原理)

如上图所示,我们可以通过计算不同k值所对应的损失函数的值,然后绘制成曲线,上面的曲线看上去就像是人的手臂,拐点(k=3)就是肘部,所以选择k=3是比较好的选择。
但是并不是所有时候都能得到上面那种比较理想的曲线,例如下面的曲线就不太好选择k值了。

- 根据需求规定k
上图中的光滑曲线不太适用于肘部原理,所以此时更好的办法是根据当前的需求来选择k值。以下面的数据为例,该数据记录了身高体重与衬衫大小的关系。

上图左边按照 ‘S,M,L’ 划分,右边按照 'XS,S,M,L,XL' 划分,这也不是为办法中的办法2333.
2. Dimensionality Reduction(降维)
1) Motivation
- 数据压缩
在面对数据冗余的时候或者数据维度过大的时候可以通过降维来实现对数据的压缩从而提高计算效率。
例如 2D→1D

3D→2D


- 数据可视化
例如我们描述一个国家可以有50多种特征,但是想要可视化是不可能的,所以通过数据压缩后可以实现50D→2D,这样就能很好的看出各个国家之间的差距关系。
2) PCA
PCA Problem Formulation(提法、构想)
如下图是一些二维的点,现在需要将这些数据转化为一维数据点

PCA的方法是
- 寻找一条拟合的曲线(或平面)U
- 然后得到每个原始数据点到U使映射面对应的映射点z
- 计算各个点到该曲线(或平面)距离的总和(这里即是所有紫色线段长度总和).
- 将距离总和优化到最短。

乍一看感觉这个线性回归很像啊?但是还是有很大的区别的,见下图

左边是线性回归,右边是PCA。
区别如下:
- PCA优化的目的是使得所有点到降维后的平面的距离之后最小,所以是垂直的距离。
- 线性回归关注的是实际值y与预测值 y_ 大小之间的差距,优化的目的是使得预测值与实际值尽可能地接近或相等,所以是竖直的距离
PCA Algorithm
1. 数据预处理
在使用PCA算法之前需要对数据机型预处理,方法有两种:
- Mean normalization
- Feature scaling
2. PCA算法描述
- 计算协方差矩阵Σ
\[Σ=\frac{1}{m}\sum_{i=1}^{m}(x^{(i)})(x^{(i)})^T\]
左边的Σ是希腊大写的σ,右边的∑是求和符号
注意d\(x^{(i)}\)是(n,1)的向量,所以Σ是(n,n)的矩阵。
计算矩阵Σ的特征向量U
视频里介绍的是octave的用于计算特征值的函数有svd和eig,但是svd比eig更加稳定。
matlab
// Σ=sigma
sigma = 1\m * (X' * X)
[U,S,V] = svd(sigma)提取特征向量(d\(U_{reduce}\)) nD→kD
U也是(n,n)的矩阵,它就是我们需要的特征向量矩阵

假设原始特征向量是n维的,我们想转化成k维,只需要取U矩阵的前k列即可,我们记这前k列向量为d\(U_{reduce}^{n×k}∈R^{n×n}\)。
- 将x向量转化成z向量
\[z = (U_{reduce})^T*x\]
\[ 维度表示: (R^{k×n}*R^{n×1}) = R^{k×1}\]
所以z是(k,1)向量。
上一步骤得到的d\(U\)可以理解成一个映射面,这里的z就是各个原始数据点x对应映射面的映射点z。
总结
1.数据预处理
2.计算协方差Σ: d\(Σ=\frac{1}{m}\sum_{i=1}^{m}(x^{(i)})(x^{(i)})^T\)
3.计算特征向量U: d\([U,S,V] = svd(sigma)\)
4.获取k维的d\(U_{reduce}^{n×k}\)
5.计算z: d\(z= (U_{reduce})^T*x\)
3) Applying PCA
1. Reconstruction from Compressed Representation(还原数据维度)

即已知降维后的向量z,如何还原成x?方法如下:
\[x = U_{reduce} * z\]
注意这里的还原并不是真正的还原成原始数据,因为这个公式得到的x是映射面U上的点,记为d\(x_{approx}\),虽然有些误差,但是误差一般很小。
2. Choosing the number of Principle Components(选择k值大小)
- 方法一
前面已经提到过d\(x_{approx}\)表示U映射面的点,而PCA优化目标就是最小化投影误差(projection error):
\[minE_p = min\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}-x_{approx}^{(i)}||^2\]
我们记原始数据离原点距离的平方的均值为
\[E_{total}=\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}||^2\]
选择k值的标准就是满足下面的条件
\[\frac{E_p }{E_{total}}=\frac{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}-x_{approx}^{(i)}||^2}{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}||^2}≤0.01\]
所以算法描述如下:

即k从1开始不断计算,知道满足小于等于0.01为止(也不一定非得是0.01,具体情况具体分析)。
- 方法二
这个方法要比上面一个方法更加简单。
前面提到过这个方法d\([U,S,V] = svd(sigma)\),其中的s也是(n,n)的矩阵,如下图所示,是一个对角矩阵。

之所以说这个方法比上一个简单,是因为下面两个式子可以等价计算。

即
\[\frac{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}-x_{approx}^{(i)}||^2}{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}||^2}=1-\frac{\sum_{i=1}^{k}s_{ii}}{\sum_{i=1}^{n}s_{ii}}≤0.01\]
S矩阵只需要计算一次即可,所以只需要将k从1递增,知道满足小于等于0.01即可求出k值。
3. Advice for Applying PCA
下面是使用PCA的一些误区
为了防止过拟合而盲目使用PCA
PCA的确能够压缩数据,提高计算速率,但是要知道的是什么是过拟合?
过拟合的对象是y值,而PCA算法计算的对象不是y,而是x与d\(x_{approx}\),所以为了防止过拟合,更好的办法是使用正则化方法。认为使用PCA优化数据准没错
很多时候想都不想就先直接优化数据,然后再进行计算。视频中老师建议可以先用原始数据计算,看一下效果如何,然后再根据实际情况看是否需要使用PCA算法来压缩数据。
Andrew Ng机器学习课程笔记--week8(K-means&PCA)的更多相关文章
- Andrew Ng机器学习课程笔记--汇总
笔记总结,各章节主要内容已总结在标题之中 Andrew Ng机器学习课程笔记–week1(机器学习简介&线性回归模型) Andrew Ng机器学习课程笔记--week2(多元线性回归& ...
- Andrew Ng机器学习课程笔记(四)之神经网络
Andrew Ng机器学习课程笔记(四)之神经网络 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7365730.html 前言 ...
- Andrew Ng机器学习课程笔记(五)之应用机器学习的建议
Andrew Ng机器学习课程笔记(五)之 应用机器学习的建议 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7368472.h ...
- Andrew Ng机器学习课程笔记--week1(机器学习介绍及线性回归)
title: Andrew Ng机器学习课程笔记--week1(机器学习介绍及线性回归) tags: 机器学习, 学习笔记 grammar_cjkRuby: true --- 之前看过一遍,但是总是模 ...
- Andrew Ng机器学习课程笔记(六)之 机器学习系统的设计
Andrew Ng机器学习课程笔记(六)之 机器学习系统的设计 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7392408.h ...
- Andrew Ng机器学习课程笔记(三)之正则化
Andrew Ng机器学习课程笔记(三)之正则化 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7365475.html 前言 ...
- Andrew Ng机器学习课程笔记(二)之逻辑回归
Andrew Ng机器学习课程笔记(二)之逻辑回归 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7364636.html 前言 ...
- Andrew Ng机器学习课程笔记(一)之线性回归
Andrew Ng机器学习课程笔记(一)之线性回归 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7364598.html 前言 ...
- Andrew Ng机器学习课程笔记--week6(精度&召回率)
Advice for applying machine learning 本周主要学习如何提升算法效率,以及如何判断学习算法在什么时候表现的很糟糕和如何debug我们的学习算法.为了让学习算法表现更好 ...
随机推荐
- Webi Report 展示 图片链接 (Image Link)
最近由于项目需求,在生成的Webi Report中需要增加一列展示相关数据系统的图片链接,要求用户可以通过点击图片链接展示图片. 方法如下: 1,首先找到系统中图片,查看随机一张图片的属性,找到图片的 ...
- MySQL日志文件之错误日志和慢查询日志详解
今天天气又开始变得很热了,虽然很热很浮躁,但是不能不学习,我在北京向各位问好.今天给大家分享一点关于数据库日志方面的东西,因为日志不仅讨厌而且还很重要,在开发中时常免不了与它的亲密接触,就在前几天公司 ...
- C# 代码规范和质量检查工具 StyleCop.Analyzers
简介 原来一直用 ReSharper 来进行代码质量检查,不过毕竟是收费的,所以想找个免费的可以推广给公司的同事也一起用.搜索了一下,找到了StyleCop,但是我在 VS 2015里安装 Style ...
- openstack中使用linux_bridge实现vxlan网络
openstack环境: 1 版本:ocata 2 系统:ubuntu16.04.2 3 控制节点 1个 + 计算节点 1个 4 控制节点网卡为ens33,ip = 172.171.5.200 ens ...
- EntityFramework Core查询问题集锦(一)
前言 和大家脱离了一段时间,有时候总想着时间挤挤总是会有的,但是并非人愿,后面会借助周末的时间来打理博客,如有问题可以在周末私信我或者加我QQ皆可,欢迎和大家一起探讨,本节我们来讨论EF Core中的 ...
- NYOJ--353--bfs+优先队列--3D dungeon
/* Name: NYOJ--3533D dungeon Author: shen_渊 Date: 15/04/17 15:10 Description: bfs()+优先队列,队列也能做,需要开一个 ...
- TASKCTL产品功能清单-转载
功能分类 功能描述 一级 二级 关系 调度控制 作业依赖关系调度 作业依赖关系调度是调度最基本的功能,指作业间具有顺序的运行,比如:a.b.c三个作业,只有当a完成后才运行b,b完成才能运行c 作业并 ...
- HTML的基本结构与标签的初步了解
一.初步了解HTML HTML是一种超文本标签语言,浏览器则是用来"解释和执行"HTML源码的工具. HTML的基本结构 <!DOCTYPE html> <htm ...
- Redis-入门笔记-15min带你一览redis
如果转载,请注明博文来源: www.cnblogs.com/xinysu/ ,版权归 博客园 苏家小萝卜 所有.望各位支持! 少年入门笔记,整理出来一起入坑!入门的视屏 ...
- vue.js之组件(上篇)
本文的Demo和源代码已放到GitHub,如果您觉得本篇内容不错,请点个赞,或在GitHub上加个星星! https://github.com/zwl-jasmine95/Vue_test 以下所有知 ...