技术背景

PCA主成分分析在数据处理和降维中经常被使用到,是一个非常经典的降维算法,本文提供一个PCA降维的流程分解,和对应的Python代码实现。

二维数据生成

如果没有自己的测试数据,我们可以生成一些特殊的随机数据点。例如我们使用Numpy的均匀随机数生成一系列二维的数据点\(\mathbf{r}=\left(x,y\right)\),其中数据点分布在一个椭圆内:

\[x^2+4y^2\leq 1
\]

生成数据点的Python代码如下所示:

import numpy as np

def plot_points(data):
import matplotlib.pyplot as plt
plt.figure()
plt.xlim(-1, 1)
plt.ylim(-1, 1)
plt.plot(data[:, 0], data[:, 1], '.', color='blue')
plt.savefig("PCA.png") def data_generator(nodes, seed=0):
np.random.seed(seed)
data = 2 * np.random.random((nodes, 2)) - 1
mask_index = np.where(data[:,0]**2+4*data[:,1]**2<=1)[0]
masked_data = data[mask_index]
return masked_data if __name__ == "__main__":
masked_data = data_generator(1000)
plot_points(masked_data)

运行上述代码会在当前路径下生成一个PCA.png的图片,结果如下所示:

数据标准化

因为不同类型的数据有不同的范围和特征,可以做一个标准化方便后续处理,但标准化之后的数据,记得降维之后要进行还原:

\[\mathbf{x}'=\frac{x-\bar{x}}{\sqrt{\frac{\sum_i(x-\bar{x})^2}{n-1}}}
\]

这是\(x\)方向的标准化,\(y\)方向的标准化同理,最终可以得到\(\mathbf{Z}=\left(\mathbf{x}',\mathbf{y}'\right)\)。对应的Python函数实现为:

def normalization(data):
data_avg = np.average(data, axis=0)
data_shift = data - data_avg
output = np.zeros_like(data)
for i in range(data.shape[-1]):
output[:, i] = data_shift[:, i] / np.sqrt(np.sum(data_shift[:, i] ** 2)/(data.shape[0]-1))
return output

协方差矩阵

正常我们写样本协方差矩阵的形式是这样的:

\[C_{jk}=\frac{\sum_{i=1}^n(x_{ij}-\bar{x})(y_{ik}-\bar{y})}{n-1}
\]

但是因为前面已经分别得到了两个方向的标准化数据,所以我们直接用下面这个公式计算就可以了:

\[C=\frac{Z^TZ}{n-1}
\]

对应的Python实现为:

def cov_matrix(Z):
return (Z.T @ Z) / (Z.shape[0] - 1)

如果对标准化之后的数据计算一个协方差矩阵可以得到:

[[1.         0.04955086]
[0.04955086 1. ]]

特征值分解

关于特征值分解的内容,可以参考上一篇文章中的介绍。总体来说就是把一个矩阵分解为如下形式:

\[C=U\Sigma U^{-1}
\]

其中\(\Sigma\)是由本征值组成的对角矩阵,\(U\)是由本征列向量组成的本征矩阵。对应的Python代码实现为:

def eig_decomp(C):
vals, vecs = np.linalg.eig(C)
sort_idx = np.argsort(vals)
return np.diag(vals), vecs, sort_idx

如果对上面的协方差矩阵做一个特征值分解,可以得到输出的特征值为:

[[1.04955086 0.        ]
[0. 0.95044914]]

输出的特征列向量组成的矩阵\(U\)为:

[[ 0.70710678 -0.70710678]
[ 0.70710678 0.70710678]]

可以把这两个列向量画到数据点中:

PCA降维

根据上面生成的对角化矩阵,我们已经可以从中筛选一些比较大的值和对应的本征向量,作为数据点的“主要成分”。一般是在本征值之间的值差异较大的时候可以更好的降维,这里生成的数据其实两个本征值没有很好的降维效果,但是我们依然可以执行降维的操作。例如我们选取第一个本征向量\(\mathbf{v}\)作为投影空间,把所有的数据点都投影到这个向量上:

\[\mathbf{r}'=\bar{\mathbf{r}}+\frac{(\mathbf{r}-\bar{\mathbf{r}})\cdot\mathbf{v}}{|\mathbf{v}|^2}\mathbf{v}
\]

就可以完成对数据点的降维,效果如下所示:

所用到的完整Python代码示例如下:

PCA Python完整代码
import numpy as np

def plot_points(data):
import matplotlib.pyplot as plt
plt.figure()
plt.xlim(-1, 1)
plt.ylim(-1, 1)
plt.plot(data[:, 0], data[:, 1], '.', color='blue')
plt.savefig("PCA.png") def plot_vec(data, center, vecs):
import matplotlib.pyplot as plt
plt.figure()
plt.xlim(-1, 1)
plt.ylim(-1, 1)
plt.plot(data[:, 0], data[:, 1], '.', color='blue')
for i in range(vecs.shape[-1]):
plt.arrow(center[0], center[1], vecs[:,i][0], vecs[:,i][1], width=0.02, alpha=0.8)
plt.savefig("PCA.png") def plot_reduced(data, center, vec_proj, vecs):
import matplotlib.pyplot as plt
plt.figure(figsize=(5,5))
plt.xlim(-1, 1)
plt.ylim(-1, 1)
plt.plot(data[:, 0], data[:, 1], '.', color='blue')
vec_proj += center
plt.plot(vec_proj[:, 0], vec_proj[:, 1], '.', color='red')
for i in range(vecs.shape[-1]):
plt.arrow(center[0], center[1], vecs[:,i][0], vecs[:,i][1], width=0.02, alpha=0.8)
plt.savefig("PCA.png") def data_generator(nodes, seed=0):
np.random.seed(seed)
data = 2 * np.random.random((nodes, 2)) - 1
mask_index = np.where(data[:,0]**2+4*data[:,1]**2<=1)[0]
masked_data = data[mask_index]
return masked_data def normalization(data):
data_avg = np.average(data, axis=0)
data_shift = data - data_avg
output = np.zeros_like(data)
sigmai = np.zeros(data.shape[-1])
for i in range(data.shape[-1]):
sigmai[i] = np.sqrt(np.sum(data_shift[:, i] ** 2)/(data.shape[0]-1))
output[:, i] = data_shift[:, i] / sigmai[i]
return output, data_avg, sigmai def cov_matrix(Z):
return (Z.T @ Z) / (Z.shape[0] - 1) def eig_decomp(C):
vals, vecs = np.linalg.eig(C)
sort_idx = np.argsort(vals)
return np.diag(vals), vecs, sort_idx def dimension_reduction(data, center, v):
return np.einsum('ij,j->i', data-center, v/np.linalg.norm(v))[:,None] * v[None]/np.linalg.norm(v) if __name__ == "__main__":
masked_data = data_generator(1000)
normalized_data, center, sigmai = normalization(masked_data)
C = cov_matrix(normalized_data)
Sigma, U, idx = eig_decomp(C)
reduced_data = dimension_reduction(masked_data, center, (U*sigmai[:,None])[:, 0])
plot_reduced(masked_data, center, reduced_data, U*sigmai[:,None])

总结概要

接上一篇文章介绍的矩阵特征分解,本文介绍了矩阵特征分解在主成分分析(PCA)算法中的应用。对于PCA算法,最直观的理解就是,在高维数据中找到一个低维的空间,使得所有的数据点投影到该低维空间之后尽可能的分离。

版权声明

本文首发链接为:https://www.cnblogs.com/dechinphy/p/pca.html

作者ID:DechinPhy

更多原著文章:https://www.cnblogs.com/dechinphy/

请博主喝咖啡:https://www.cnblogs.com/dechinphy/gallery/image/379634.html

PCA主成分分析的Python实现的更多相关文章

  1. PCA主成分分析Python实现

    作者:拾毅者 出处:http://blog.csdn.net/Dream_angel_Z/article/details/50760130 Github源代码:https://github.com/c ...

  2. 机器学习 - 算法 - PCA 主成分分析

    PCA 主成分分析 原理概述 用途 - 降维中最常用的手段 目标 - 提取最有价值的信息( 基于方差 ) 问题 - 降维后的数据的意义 ? 所需数学基础概念 向量的表示 基变换 协方差矩阵 协方差 优 ...

  3. 用PCA(主成分分析法)进行信号滤波

    用PCA(主成分分析法)进行信号滤波 此文章从我之前的C博客上导入,代码什么的可以参考matlab官方帮助文档 现在网上大多是通过PCA对数据进行降维,其实PCA还有一个用处就是可以进行信号滤波.网上 ...

  4. PCA历程详细python代码(原创)

    #PCA主成分分析,原文为文末的链接,代码为自己亲自手码 def cov_out1(dx,dy): #第一步:求解x,y各自的均值 mean_x=0 mean_y=0 for i in range(l ...

  5. 机器学习之PCA主成分分析

    前言            以下内容是个人学习之后的感悟,转载请注明出处~ 简介 在用统计分析方法研究多变量的课题时,变量个数太多就会增加课题的复杂性.人们自然希望变量个数较少而得到的 信息较多.在很 ...

  6. PCA(主成分分析)方法浅析

    PCA(主成分分析)方法浅析 降维.数据压缩 找到数据中最重要的方向:方差最大的方向,也就是样本间差距最显著的方向 在与第一个正交的超平面上找最合适的第二个方向 PCA算法流程 上图第一步描述不正确, ...

  7. PCA主成分分析(上)

    PCA主成分分析 PCA目的 最大可分性(最大投影方差) 投影 优化目标 关键点 推导 为什么要找最大特征值对应的特征向量呢? 之前看3DMM的论文的看到其用了PCA的方法,一开始以为自己对于PCA已 ...

  8. [机器学习] PCA主成分分析原理分析和Matlab实现方法

    转载于http://blog.csdn.net/guyuealian/article/details/68487833 网上关于PCA(主成分分析)原理和分析的博客很多,本博客并不打算长篇大论推论PC ...

  9. [机器学习笔记]主成分分析PCA简介及其python实现

    主成分分析(principal component analysis)是一种常见的数据降维方法,其目的是在“信息”损失较小的前提下,将高维的数据转换到低维,从而减小计算量. PCA的本质就是找一些投影 ...

  10. 【机器学习算法-python实现】PCA 主成分分析、降维

    1.背景         PCA(Principal Component Analysis),PAC的作用主要是减少数据集的维度,然后挑选出基本的特征.         PCA的主要思想是移动坐标轴, ...

随机推荐

  1. DOM – Dimension & Coordinate (offset, client, computed, rect)

    前言 很多年前有记入过一篇 box-sizing 和 dom width. 想想也挺可悲的, 那年我是负责后端的, 却要帮着前端去学习这些知识来解决问题... 也好, 现在 full stack, 也 ...

  2. C++ const常量指针

    const常量指针 const是C++关键字,译为常量,const指针即为常量指针. 分为三类 指向const的指针 const指针 指向const的const指针 指向const的指针 表示指向区域 ...

  3. 心得小结,关于注重加强MCU下调试能力的意识

    这两个月没有怎么更新博文,最近换工作了,根据新工作安排,大半年内都做MCU开发(就不要叫单片机了,太老土了). 入职新工作了,需重构拳头产品的软件,所以每天加班加点. 单片机与linux应用开发,开发 ...

  4. 关于 CLOI 头像&博客主题征集

    是这样的,开了一个新号准备做一个官号,当作一个公告栏(?),大家访问博客或者看消息也方便 现在苦于脑袋比较笨,想不出头像来,有意者可以帮设计下 此外,还(选择性地)需要一个博客主题,主要是简洁,打开会 ...

  5. 使用MessagePipe实现进程间通信

    1.MessagePipe介绍 可以用于.NET和Unity上面的高性能的内存/分布式消息传递管道.适用于发布/订阅模式.CQRS的中介模式.Prism中的EventAggregator.IPC(进程 ...

  6. Ant Design Vue 在表格中插入图片

    这两天一直在用 Antdv 做一些小 demo,今天在做表格的时候想在表格中插入图片,简单翻了下文档和国内的博客,发现所有的方法竟然都不好使,最后还是在官网的示例代码中看到相关的部分,不得不说这种 u ...

  7. IHostedService(BackgroundService)的启动和停止顺序

    一句话总结: 按照Add顺序启动, 先启动, 后停止. Host 源代码 public async Task StartAsync(CancellationToken cancellationToke ...

  8. 容器虚拟化平台 KSV 1.5 发布:部署更便捷,适配更多信创需求!

    报告!我们又迎来了一次重磅更新: 近日,由青云科技打造的轻量化虚拟机管理平台--KSV 容器虚拟化 1.5 版本正式发布! KSV 1.5 好在什么地方?逐个来解释 新增基于模板创建虚拟机.克隆虚拟机 ...

  9. CSS动画(波光粼粼登录页面)

    1.整体效果 https://mmbiz.qpic.cn/sz_mmbiz_gif/EGZdlrTDJa4AbemkU3vLRIDzTIgPHSjicia97wfvMVAhqZL4lsGbQQCbsV ...

  10. 2024CSP-J游记

    拿到题的第一步,先看第一题,大致扫了一眼,水题.以为是hash,进一步思考了一下,hash不行.发现可以用set,于是拿set敲了一下,样例全对. 第二题,看了眼样例以为是DFS.实际看了看发现是模拟 ...