机器学习(五):混合高斯聚类(求聚类标签)+PCA降维(3维降2维)习题
- 使用混合高斯模型 GMM,计算如下数据点的聚类过程:
\(Data = np.array([1,2,6,7])\)
均值初值为:
\(\mu_1, \mu_2 = 1, 5\)
权重初值为:
\(w_1, w_2 = 0.5, 0.5\)
方差:
\(std_1, std_2 = 1, 1\)
\(K = 2\)
10 次迭代后数据的聚类标签是多少?
采用python代码实现:
from scipy import stats
import numpy as np
#初始化数据
Data = np.array([1,2,6,7])
w1 , w2 = 0.5, 0.5
mu1 , mu2 = 1, 5
std1 , std2 = 1, 1
n = len(Data) # 样本长度
zij=np.zeros([n,2])
for t in range(10):
# E-step 依据当前参数,计算每个数据点属于每个子分布的概率
z1_up = w1 * stats.norm(mu1 ,std1).pdf(Data)
z2_up = w2*stats.norm(mu2 , std2).pdf(Data)
z_all = (w1*stats.norm(mu1 ,std1).pdf(Data)+w2*stats.norm(mu2 ,std2).pdf(Data))+0.001
rz1 = z1_up/z_all # 为甲分布的概率
rz2 = z2_up/z_all # 为乙分布的概率
# M-step 依据 E-step 的结果,更新每个子分布的参数。
mu1 = np.sum(rz1*Data)/np.sum(rz1)
mu2 = np.sum(rz2*Data)/np.sum(rz2)
std1 = np.sum(rz1*np.square(Data-mu1))/np.sum(rz1)
std2 = np.sum(rz2*np.square(Data-mu2))/np.sum(rz2)
w1 = np.sum(rz1)/n
w2 = np.sum(rz2)/n
for i in range(n):
zij[i][0] = rz1[i]/(rz1[i]+rz2[i])
zij[i][1] = rz2[i]/(rz1[i]+rz2[i])
labels = np.argmax(zij, axis=1)#输出每一行的最大值,0或1 axis表示返回每一行中最大值所在列的索引
print(labels)
聚类标签输出结果:[0 0 1 1]
也就是说,10 次迭代后数据的聚类标签是1,2归为0类6,7归为1类
附注:
如果 axis 为 None,那么 np.argmax 会将数组展平为一维,然后返回最大值的索引。例如:
>>> a = np.array([[1, 2], [3, 4]])
>>> np.argmax(a)
3
如果 axis 为 0,那么 np.argmax 会沿着第一个维度(行)进行最大值的查找,返回每一列中最大值所在的行索引。例如:
>>> a = np.array([[1, 2], [3, 4]])
>>> np.argmax(a, axis=0)
array([1, 1])
如果 axis 为 1,那么 np.argmax 会沿着第二个维度(列)进行最大值的查找,返回每一行中最大值所在的列索引。例如:
>>> a = np.array([[1, 2], [3, 4]])
>>> np.argmax(a, axis=1)
array([1, 1])
在之前问题中,np.argmax([gamma1, gamma2], axis=0) 的意思是沿着第一个维度(gamma1 和 gamma2)进行最大值的查找,返回每个数据点属于哪个子分布的概率更大。
假设我们的数据集有 10 个 3 维数据, 需要用 PCA 降到 2 维特征。
array([
[ 3.25, 1.85, -1.29],
[ 3.06, 1.25, -0.18],
[ 3.46, 2.68, 0.64],
[ 0.3 , -0.1 , -0.79],
[ 0.83, -0.21, -0.88],
[ 1.82, 0.99, 0.16],
[ 2.78, 1.75, 0.51],
[ 2.08, 1.5 , -1.06],
[ 2.62, 1.23, 0.04],
[ 0.83, -0.69, -0.61]])
给出求解过程
解:
- 对所有的样本进行中心化:
\]
得到:
X=np.array([
[ 1.147 0.825 -0.944]
[ 0.957 0.225 0.166]
[ 1.357 1.655 0.986]
[-1.803 -1.125 -0.444]
[-1.273 -1.235 -0.534]
[-0.283 -0.035 0.506]
[ 0.677 0.725 0.856]
[-0.023 0.475 -0.714]
[ 0.517 0.205 0.386]
[-1.273 -1.715 -0.264]])
- 计算样本的协方差矩阵 $X X^{T} $
covM2=np.array([[1.26344556 1.08743889 0.32030889],
[1.08743889 1.11076111 0.31611111],
[0.32030889 0.31611111 0.45449333]])
- 对矩阵 $X X^{T} $ 进行特征值分解
取出最大的 \(\mathrm{n}^{\prime}\) 个特征值对应的特征向量 $ \left(w_{1}, \ldots, w_{n^{\prime}}\right) $, 将所有的特征向量标准化后,组成特征向量矩阵 \(W\)。
3.1求出特征值:
eigval=np.array([2.38219729 0.09637041 0.35013229])
3.2特征向量标准化:
eigvec=np.array([
[ 0.71144 0.67380165 -0.19961077],
[ 0.66498574 -0.73733944 -0.11884665],
[ 0.22725997 0.04818606 0.97264126]])
3.3取出特征值最大的2个特征值索引,也就是\([2.38, 0.35]\)对应的第1列和第3列:
indexes=[2 0]
3.4特征向量矩阵W:(对eigvec取了第3列和第1列)
W=np.array([
[-0.19961077 0.71144 ],
[-0.11884665 0.66498574],
[ 0.97264126 0.22725997]])
- 对样本集中的每一个样本 \(x^{(i)}\) , 转化为新的样本 \(z^{(i)}=W^{T} x^{(i)}\) ,得到输出样本集 $D=\left(z^{(1)}, \ldots z^{(m)}\right) $
X:3×10 W:3×2 \(x\cdot W =10\times3 \quad 3\times2\) 因为输入行列转置,结果是一致的
D=np.array([
[-1.24517539 1.15010151]
[-0.05630956 0.86819503]
[ 0.49146125 2.29005381]
[ 0.06174799 -2.1317387 ]
[-0.1185103 -1.84827733]
[ 0.55280596 -0.10961848]
[ 0.6112806 1.15829407]
[-0.74632697 0.13724149]
[ 0.24787719 0.5918589 ]
[ 0.20114923 -2.10611029]])
代码:
import numpy as np
X=np.array([
[ 3.25, 1.85, -1.29],
[ 3.06, 1.25, -0.18],
[ 3.46, 2.68, 0.64],
[ 0.3 , -0.1 , -0.79],
[ 0.83, -0.21, -0.88],
[ 1.82, 0.99, 0.16],
[ 2.78, 1.75, 0.51],
[ 2.08, 1.5 , -1.06],
[ 2.62, 1.23, 0.04],
[ 0.83, -0.69, -0.61]])
def pca(X, d):
# Centralization中心化
means = np.mean(X, 0)
X = X - means
print(X)
# Covariance Matrix 计算样本协方差矩阵
M=len(X)
X=np.mat(X)
covM2=np.cov(X.T)
# 求出特征值,特征值分解
eigval , eigvec = np.linalg.eig(covM2)
indexes = np.argsort(eigval)[-d:]
W = eigvec[:, indexes]
return X*W
print(pca(X, 2))
附注:
np.cov()是一个用于计算协方差矩阵的函数,它可以接受一个或两个数组作为参数,返回一个二维数组,表示协方差矩阵。
协方差矩阵是一个对称矩阵,它的对角线元素表示各个变量的方差,非对角线元素表示两个变量之间的协方差。协方差反映了两个变量的线性相关程度,如果协方差为正,说明两个变量正相关;如果协方差为负,说明两个变量负相关;如果协方差为零,说明两个变量无相关性。
np.cov()的用法如下:
np.cov(m, y=None, rowvar=True, bias=False, ddof=None, fweights=None, aweights=None)参数说明:
- m: 一个一维或二维的数组,表示多个变量和观测值。如果是一维数组,表示一个变量的观测值;如果是二维数组,每一行表示一个变量,每一列表示一个观测值。
- y: 可选参数,另一个一维或二维的数组,表示另一组变量和观测值,必须和m具有相同的形状。
- rowvar: 可选参数,布尔值,默认为True。如果为True,表示每一行代表一个变量;如果为False,表示每一列代表一个变量。
- bias: 可选参数,布尔值,默认为False。如果为False,表示计算无偏协方差(除以n-1);如果为True,表示计算有偏协方差(除以n)。
- ddof: 可选参数,整数,默认为None。如果不为None,则覆盖由bias隐含的默认值。ddof=0表示计算有偏协方差;ddof=1表示计算无偏协方差。
- fweights: 可选参数,一维数组或整数,默认为None。表示每次观测的频率权重。
- aweights: 可选参数,一维数组,默认为None。表示每个变量的可靠性权重。
返回值:
- 一个二维数组,表示协方差矩阵。
举例说明:
import numpy as np # 生成两组随机数据
x = np.random.randn(10)
y = np.random.randn(10) # 计算x和y的协方差矩阵
cov_xy = np.cov(x,y)
print(cov_xy)
# 输出:
[[ 0.8136679 -0.01594772]
[-0.01594772 0.84955963]] # 计算x和y的相关系数矩阵
corr_xy = np.corrcoef(x,y)
print(corr_xy)
# 输出:
[[ 1. -0.01904402]
[-0.01904402 1. ]]
机器学习(五):混合高斯聚类(求聚类标签)+PCA降维(3维降2维)习题的更多相关文章
- 【机器学习基础】无监督学习(1)——PCA
前面对半监督学习部分作了简单的介绍,这里开始了解有关无监督学习的部分,无监督学习内容稍微较多,本节主要介绍无监督学习中的PCA降维的基本原理和实现. PCA 0.无监督学习简介 相较于有监督学习和半监 ...
- 吴裕雄 python 机器学习——混合高斯聚类GMM模型
import numpy as np import matplotlib.pyplot as plt from sklearn import mixture from sklearn.metrics ...
- sklearn聚类模型:基于密度的DBSCAN;基于混合高斯模型的GMM
1 sklearn聚类方法详解 2 对比不同聚类算法在不同数据集上的表现 3 用scikit-learn学习K-Means聚类 4 用scikit-learn学习DBSCAN聚类 (基于密度的聚类) ...
- 【机器学习】机器学习入门08 - 聚类与聚类算法K-Means
时间过得很快,这篇文章已经是机器学习入门系列的最后一篇了.短短八周的时间里,虽然对机器学习并没有太多应用和熟悉的机会,但对于机器学习一些基本概念已经差不多有了一个提纲挈领的了解,如分类和回归,损失函数 ...
- 数学建模及机器学习算法(一):聚类-kmeans(Python及MATLAB实现,包括k值选取与聚类效果评估)
一.聚类的概念 聚类分析是在数据中发现数据对象之间的关系,将数据进行分组,组内的相似性越大,组间的差别越大,则聚类效果越好.我们事先并不知道数据的正确结果(类标),通过聚类算法来发现和挖掘数据本身的结 ...
- 【机器学习与R语言】11- Kmeans聚类
目录 1.理解Kmeans聚类 1)基本概念 2)kmeans运作的基本原理 2.Kmeans聚类应用示例 1)收集数据 2)探索和准备数据 3)训练模型 4)评估性能 5)提高模型性能 1.理解Km ...
- 机器学习公开课笔记(8):k-means聚类和PCA降维
K-Means算法 非监督式学习对一组无标签的数据试图发现其内在的结构,主要用途包括: 市场划分(Market Segmentation) 社交网络分析(Social Network Analysis ...
- 机器学习进阶-背景建模-(帧差法与混合高斯模型) 1.cv2.VideoCapture(进行视频读取) 2.cv2.getStructureElement(构造形态学的卷积) 3.cv2.createBackgroundSubtractorMOG2(构造高斯混合模型) 4.cv2.morpholyEx(对图像进行形态学的变化)
1. cv2.VideoCapture('test.avi') 进行视频读取 参数说明:‘test.avi’ 输入视频的地址2. cv2.getStructureElement(cv2.MORPH_E ...
- 机器学习3_EM算法与混合高斯模型
①EM算法: http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html 李航 <统计学习方法>9.1节 ②混合高斯模 ...
- [zz] 混合高斯模型 Gaussian Mixture Model
聚类(1)——混合高斯模型 Gaussian Mixture Model http://blog.csdn.net/jwh_bupt/article/details/7663885 聚类系列: 聚类( ...
随机推荐
- HTML悬浮div
需求,html底部为地图,上层是各个div HTML<body> //地图 <div id='map' id="demo1"></div> &l ...
- JMeter控制器遍历一组数据
1.获取数据列表,通过JSON提取器提取所有name信息 获取到的name总条数 = name_matchNr = 4 2.通过添加控制器遍历一组数据 2.1 方式一:添加循环控制器 循环控制次数为 ...
- axis2 WebService 请求参数xml格式
方法定义 public class GetBillInfoService { public String getBillList(String xmlData, String temp ){} 传入接 ...
- 量化交易 - matplotlib画candle图
需要mplfinance包 pip install mplfinance --upgrade from matplotlib import style import pandas as pd im ...
- (四).JavaScript的循环结构
2.2 循环嵌套 ①.语法 // 嵌套循环:循环内部包裹其他的循环 // 外侧循环执行一次,内部循环执行一轮 // 实例 for (var i = 0; i < 5; i++) { for (v ...
- NFS只能挂载为nobody的解决办法
方法一 mount中指定参数 mount -t nfs -o vers=3 192.168.23.23:/data1 /data1 这种方法不推荐,但可以解决临时挂载的需求 方法二 cat /etc/ ...
- 源代码管理工具介绍(以GITHUB为例)
Github:全球最大的社交编程及代码托管网站,可以托管各种git库,并提供一个web界面 1.基本概念 仓库(Repository):用来存放项目代码,每个项目对应一个仓库,多个开源项目则有多个仓库 ...
- Vue学习之基础大全
1 导入vue: 2 <script src="vue.min.js"></script> 3 创建vm实例 4 var vm=new Vue({ 5 el ...
- 微信小程序按下去的样式
微信小程序设置 hover-class,实现点击态效果 目前支持 hover-class 属性的组件有三个:view.button.navigator. 不支持 hover-class 属性的组件,同 ...
- el-scrollbar element-ui的滚动条组件(官方文档没有写出来)
<el-scrollbar></el-scrollbar> //去掉横向滚动条 /deep/.el-scrollbar__wrap { overflow-x: hidden; ...