线性模型之LDA和PCA推导
线性模型之LDA和PCA
线性判别分析LDA
LDA是一种无监督学习的降维技术。
思想:投影后类内方差最小,类间方差最大,即期望同类实例投影后的协方差尽可能小,异类实例的投影后的类中心距离尽量大。
二分类推导
给定数据集\(D=\{(x_i,y_i)\}_{i=1}^m\),令\(X_i,\mu_i,\sum_i\)分别表示第\(i\in \{0,1\}\)类实例的集合,均值,和协方差矩阵
则两类样本中心点在\(w\)方向直线的投影分别为\(w^Tu_0,w^Tu_1\);若将所有的样本点都投影到\(w\)方向直线上,则两类样本的协方差分别是\(w^T\sum_0 w,w^T\sum_1 w\)
此处推导用到的知识点
$\frac{\sum_{i=1}^m(x_i-\overline{X})(x_i-\overline{X})}{n-1}$
协方差:
$\frac{\sum_{i=1}^m(x_i-\overline{X})(y_i-\overline{Y})}{n-1}$
$\sum_0=\sum_{x\in X_0}(x-u_0)(x-u_0)^T$
根据投影后类内方差最小,类间方差最大,欲最大化的目标为:
- \(J=\frac{||w^Tu_0-w^Tu_1||^2}{w^T\sum_0 w+w^T\sum_1 w}\)
类内散度矩阵:
- \(S_w=\sum_{x \in Y_i}(x-u_i)(x-u_i)^T\)
类间散度矩阵:
- \(S_b=(u_0-u_1)(u_0-u_1)^T\)
则目标重写为\(S_w,S_b\)的广义瑞利商
- \(J=\frac{w^TS_bw}{w^TS_ww}\)
- 解与w只与方向有关与长度无关,令,\({w^TS_ww}=1\)
目标函数等价于
- min\(\quad -w^TS_bw\)
- \(s.t. \quad {w^TS_ww}=1\)
引入拉格朗日乘子法
- \(S_bw = \lambda S_ww\)
\(S_bw\)方向恒为\((u_0-u_1)\)
- \(S_bw = \lambda (u_0-u_1)\) 带入上式得:
- \(w = S_w^{-1}(u_0-u_1)\)
奇异值分解:
- \(S_w=U\sum V^T\)
- \(S_w^{-1}=V\sum^{-1} U^T\)
从贝叶斯决策理论的角度阐释:当两类满足数据同先验,满足高斯分布且协方差相等时,LDA达到最优
N分类
全局散度矩阵:
- \(S_t=S_b+S_w=\sum^m_{i=1}(x_i-u)(x_i-u)^T\)
- \(S_w=\sum^N_{i=1}\sum_{x \in X_i}(x-u_i)(x-u_i)^T\)
- \(S_b=S_t-S_w=\sum^N_{i=1}m_i(u_i-u)(u_i-u)^T\)
根据LDA思想,目标函数为:
- \(J(W)=\frac{tr(W^TS_bW)}{tr(W^TS_wW)}\)
- \(S_bw = \lambda S_ww\)
PCA
PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征
信号领域:信号具有较大方差,噪音具有较大方差,信噪比越大意味着数据质量越高。所以PCA的目标就是最大化投影误差。
第一步:将数据进行去中心化:
第二步:方差:
- x在单位向量上的投影为\(x^Tw\)
- \(D(x)=\frac{1}{n}\sum_{i=1}^m(x_i^Tw)^2\)
- = \(\frac{1}{n}\sum_{i=1}^mw^Tx_ix_i^Tw\)
- = \(w^T(\frac{1}{n}\sum_{i=1}^mx_ix_i^T)w\)
- = \(w^T\sum w\)
第三步:目标函数:
- \(max \quad w^T\sum w\)
- \(max \quad w^Tw=1\)
第四步:拉格朗日
- \(D(x)=w^T\sum w=\lambda w^Tw=\lambda\)
投影后的方差就是投影后的协方差特征值,将特征值由大到小排列,取前d个主成分(主成分间相互正交)
由于得到协方差矩阵的特征值特征向量有两种方法:特征值分解协方差矩阵、奇异值分解协方差矩阵,所以PCA算法有两种实现方法:基于特征值分解协方差矩阵实现PCA算法、基于SVD分解协方差矩阵实现PCA算法
降维后的信息占比:
- \(\eta=\sqrt{\frac{\sum_{i=1}^d\lambda_i^2}{\sum_{i=1}^n \lambda_i^2}}\)
PCA和LDA的相同点
PCA和LDA都是经典的降维算法;
PCA和LDA都假设数据是符合高斯分布的;
PCA和LDA都利用了矩阵特征分解的思想。
PCA和LDA的不同点
PCA是无监督(训练样本无标签)的,LDA是有监督(训练样本有标签)的;
PCA去除原始数据集中冗余的维度,让投影子空间的各个维度的方差尽可能大,也就是熵尽可能大。LDA是通过数据降维找到那些具有判断力的维度,使得原始数据在这些维度上的投影,不同类别尽可能区分开来。
LDA最多可以降到k-1维(k是训练样本的类别数量,k-1是因为最后一维的均值可以由前面的k-1维的均值表示);而PCA没有这个限制
LDA还可以用于分类。
LDA可能会过拟合数据。
线性模型之LDA和PCA推导的更多相关文章
- LDA和PCA降维的原理和区别
LDA算法的主要优点有: 在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识. LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优. LDA算 ...
- 无监督LDA、PCA、k-means三种方法之间的的联系及推导
\(LDA\)是一种比较常见的有监督分类方法,常用于降维和分类任务中:而\(PCA\)是一种无监督降维技术:\(k\)-means则是一种在聚类任务中应用非常广泛的数据预处理方法. 本文的 ...
- LDA和PCA
LDA: LDA的全称是Linear Discriminant Analysis(线性判别分析),是一种supervised learning.有些资料上也称为是Fisher's Linear Dis ...
- 机器学习(十六)— LDA和PCA降维
一.LDA算法 基本思想:LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的.这点和PCA不同.PCA是不考虑样本类别输出的无监督降维技术. 我们要将数据在低维度上进行投影,投 ...
- 【主成份分析】PCA推导
### 主成份分析(Pricipal components analysis PCA) 假设空间$R^{n}$中有m个点{$x^{1},......,x^{n}$},希望压缩,对每个$x^{i}$都有 ...
- 数据分析--降维--LDA和PCA
一.因子分析 因子分析是将具有错综复杂关系的变量(或样本)综合为少数几个因子,以再现原始变量和因子之间的相互关系,探讨多个能够直接测量,并且具有一定相关性的实测指标是如何受少数几个内在的独立因子所支配 ...
- 【降维】主成分分析PCA推导
本博客根据 百面机器学习,算法工程师带你去面试 一书总结归纳,公式都是出自该书. 本博客仅为个人总结学习,非商业用途,侵删. 网址 http://www.ptpress.com.cn 目录: PCA最 ...
- LDA和PCA区别
https://blog.csdn.net/brucewong0516/article/details/78684005
- LDA与PCA
参考: https://www.cnblogs.com/pinard/p/6244265.html https://blog.csdn.net/qq_25680531/article/details/ ...
随机推荐
- ASP.NET Core 配置 EF SQLite 支持 - ASP.NET Core 基础教程 - 简单教程,简单编程
原文:ASP.NET Core 配置 EF SQLite 支持 - ASP.NET Core 基础教程 - 简单教程,简单编程 ASP.NET Core 配置 EF SQLite 支持 上一章节我有提 ...
- theano 安装杂记
0. MinGW MinGW:Windows 下的 g++等linux 下的编译工具: Anaconda 下 MinGW 的安装(进行 windows cmd 界面):conda install mi ...
- Webx框架:Pipeline基本介绍
Pipeline. 它是管道的含义.一个管道阀门可以安装非常多.有许多可能的分支.它是用来控制页处理.它需要在被定义pipeline.xml文件.该文件是为每个阀的标签.该文件可以放一些简单的控制语句 ...
- 使用WPF技术模拟手机界面
原文:使用WPF技术模拟手机界面 1. 前言 WPF(Windows Presentation Foundation),即"Windows呈现基础",它的目的非常明确,就是用来把数 ...
- [WPF] PerformClick ?
原文:[WPF] PerformClick ? [WPF] PerformClick ? 周银辉 WPF没有提供这个方法,还真是让人觉得有些讨厌啊.而关于这个嘛,Google中搜一下,一大堆,但一般 ...
- 实现js呼叫流行
<span style="font-size:14px;">//Html代码:单击控制实现通话"收件人流行" <!DOCTYPE html&g ...
- 新秀翻译(一个)——Java在继承和组合
阅读英文的程序猿的能力,这是非常重要的.过去的几年中一直在学习英语,今天心血来潮,在网上找什么鲍文简要翻译. 普通级,能力有限,看官还请大家多多指点. 译文: 本文将会举例说明Java中继承和组合的概 ...
- LeetCode 36 Sudoku Solver
Write a program to solve a Sudoku puzzle by filling the empty cells. Empty cells are indicated by th ...
- PostgreSQL模式匹配的方法 LIKE等
PostgreSQL 提供了三种实现模式匹配的方法:传统 SQL 的 LIKE 操作符.SQL99 新增的 SIMILAR TO 操作符. POSIX 风格的正则表达式.另外还有一个模式匹配函数 su ...
- ELINK编程器典型场景之序列号烧写
序列号烧写功能是指往指定的FLASH存储位置写入产品序列号.由于产品序列号写入到FLASH存储位置,启用序列号功能需要考虑以下几个方面:如果您的应用使能了读保护,则解除读保护将触发全片擦除机制,序列号 ...