@(131 - Machine Learning | 机器学习) PCA是一种特征选择方法,可将一组相关变量转变成一组基础正交变量 25 PCA的回顾和定义 Demo: when to use PCA latent features driving the patterns in the data (demo find the big shots in enron) 访问隐藏的特征 dimensionality reduction 1)visualize high dimensional dat…
摘要:PCA为非监督分类方法,常用于数据降维.为监督分类数据预处理,本例采用PCA对人脸特征提取先做降维处理,然后使用KNN算法对图片进行分类 ##1.PCA简介 设法将原来变量重新组合成一组新的互相无关的几个综合变量,同时根据实际需要从中可以取出几个较少的综合变量尽可能多地反映原来变量的信息的统计方法叫做主成分分析或称主分量分析,也是数学上用来降维的一种方法.在本例中,主要用于降维处理. PCA 官方文档 2.KNN 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算…
Principal Component Analysis(PCA) algorithm summary mean normalization(ensure every feature has sero mean) Sigma = 1/m∑(xi)(xi)T [U,S,V] = svd(Sigma)  ureduce = u(:,1:K) Z = ureduce ' * X Pick smallest value of k for which  ∑ki=1 Sii / ∑i=mi=1 Sii  >…
Principal Component Analysis(PCA) 概念 去中心化(零均值化): 将输入的特征减去特征的均值, 相当于特征进行了平移, \[x_j - \bar x_j\] 归一化(标准化): 将输入的特征减去特征的均值, 得到的差在除以特征的标准差, \[{{x_j-\bar x_j}\over{std(x_j)}}\]在进行PCA之前, 一定要进行零均值化或者标准化 用途 数据压缩(Data Compression) 数据可视化(Data Visualization) 提高算…
@(131 - Machine Learning | 机器学习) 零. Goal How Unsupervised Learning fills in that model gap from the original Machine Learning work flow 2.How to compare different models developed using Unsupervised Learning for their relative strengths and relative…
主成分分析Principal Component Analysis 降维除了便于计算,另一个作用就是便于可视化. 主成分分析-->降维--> 方差:描述样本整体分布的疏密,方差越大->样本越稀疏,方差越小->样本越紧密 所以问题转化成了 --> 与线性回归对比,似乎有些类似.但它们是不同的! 不仅是公式上有区别,且对于线性回归来说,其纵轴轴 对应的是输出标记.而PCA中其两个轴都是表示特征. 且这些点是垂直于特征轴,而不是红线轴 PCA第一步:将样例的均值归为0(demean…
PCA最主要的用途是用来减少特征向量的数目,N个特征向量 减小到 K个特征向量.如果为了可视化,k可以使3 或者 2.这样可以加速算法的学习速度. PCA用来压缩图像同一有效. 具体方式以及原理在gitlab上,学习源来自 stanford的machine learning 公开课.…
@(131 - Machine Learning | 机器学习) 1 Feature Scaling transforms features to have range [0,1] according to the formula $x' = \frac{x-x_{min}}{x_{max}-x_{min}} $ 1.1 Sklearn - MinMaxScaler from sklearn.preprocessing import MinMaxScaler import numpy weigh…
findClosestCentroids.m m = size(X,); :m [value index] = min(sum((repmat(X(i,:),K,)-centroids).^,)); idx(i) = index; end computeCentroids.m temp = [X idx]; // pdf说能向量化实现更高效,本人对matlab实在不熟,勉强实现了下循环的,若有大神,敬请赐教. :K [index_row index_column]= find(temp(:,en…
1 Why? Reason1 Knowledge Discovery (about human beings limitaitons) Reason2 Cause of Dimensionality (维度灾难) (about ML algorithm itself) 所需的数据量会根据你所拥有的特征数量以指数速度增长 2 NP-Hard Problem arbitrarily choose m features from n features (m≤n),don't know what m t…