主成份分析PCA
Data Mining
主成分分析PCA
降维的必要性
1.多重共线性--预测变量之间相互关联。多重共线性会导致解空间的不稳定,从而可能导致结果的不连贯。
2.高维空间本身具有稀疏性。一维正态分布有68%的值落于正负标准差之间,而在十维空间上只有0.02%。
3.过多的变量会妨碍查找规律的建立。
4.仅在变量层面上分析可能会忽略变量之间的潜在联系。例如几个预测变量可能落入仅反映数据某一方面特征的一个组内。
降维的目的:
1.减少预测变量的个数
2.确保这些变量是相互独立的
3.提供一个框架来解释结果
降维的方法有:主成分分析、因子分析、用户自定义复合等。
PCA(Principal Component Analysis)不仅仅是对高维数据进行降维,更重要的是经过降维去除了噪声,发现了数据中的模式。
PCA把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的m个特征互不相关。从旧特征到新特征的映射捕获数据中的固有变异性。
预备知识
样本X和样本Y的协方差(Covariance):
协方差为正时说明X和Y是正相关关系,协方差为负时X和Y是负相关关系,协方差为0时X和Y相互独立。
Cov(X,X)就是X的方差(Variance).
当样本是n维数据时,它们的协方差实际上是协方差矩阵(对称方阵),方阵的边长是。比如对于3维数据(x,y,z),计算它的协方差就是:
若,则称
是A的特征值,X是对应的特征向量。实际上可以这样理解:矩阵A作用在它的特征向量X上,仅仅使得X的长度发生了变化,缩放比例就是相应的特征值
。
当A是n阶可逆矩阵时,A与P-1Ap相似,相似矩阵具有相同的特征值。
特别地,当A是对称矩阵时,A的奇异值等于A的特征值,存在正交矩阵Q(Q-1=QT),使得:

对A进行奇异值分解就能求出所有特征值和Q矩阵。
     D是由特征值组成的对角矩阵
由特征值和特征向量的定义知,Q的列向量就是A的特征向量。
Jama包
Jama包是用于基本线性代数运算的java包,提供矩阵的cholesky分解、LUD分解、QR分解、奇异值分解,以及PCA中要用到的特征值分解,此外可以计算矩阵的乘除法、矩阵的范数和条件数、解线性方程组等。
PCA过程
1.特征中心化。即每一维的数据都减去该维的均值。这里的“维”指的就是一个特征(或属性),变换之后每一维的均值都变成了0。
很多数据挖掘的教材上都会讲到鹫尾花的例子,本文就拿它来做计算。原始数据是150×4的矩阵A:
| 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 | 5.1     3.5     1.4     0.24.9     3.0     1.4     0.24.7     3.2     1.3     0.24.6     3.1     1.5     0.25.0     3.6     1.4     0.25.4     3.9     1.7     0.44.6     3.4     1.4     0.35.0     3.4     1.5     0.24.4     2.9     1.4     0.24.9     3.1     1.5     0.15.4     3.7     1.5     0.24.8     3.4     1.6     0.24.8     3.0     1.4     0.14.3     3.0     1.1     0.15.8     4.0     1.2     0.25.7     4.4     1.5     0.45.4     3.9     1.3     0.45.1     3.5     1.4     0.35.7     3.8     1.7     0.35.1     3.8     1.5     0.35.4     3.4     1.7     0.25.1     3.7     1.5     0.44.6     3.6     1.0     0.25.1     3.3     1.7     0.54.8     3.4     1.9     0.25.0     3.0     1.6     0.25.0     3.4     1.6     0.45.2     3.5     1.5     0.25.2     3.4     1.4     0.24.7     3.2     1.6     0.24.8     3.1     1.6     0.25.4     3.4     1.5     0.45.2     4.1     1.5     0.15.5     4.2     1.4     0.24.9     3.1     1.5     0.15.0     3.2     1.2     0.25.5     3.5     1.3     0.24.9     3.1     1.5     0.14.4     3.0     1.3     0.25.1     3.4     1.5     0.25.0     3.5     1.3     0.34.5     2.3     1.3     0.34.4     3.2     1.3     0.25.0     3.5     1.6     0.65.1     3.8     1.9     0.44.8     3.0     1.4     0.35.1     3.8     1.6     0.24.6     3.2     1.4     0.25.3     3.7     1.5     0.25.0     3.3     1.4     0.27.0     3.2     4.7     1.46.4     3.2     4.5     1.56.9     3.1     4.9     1.55.5     2.3     4.0     1.36.5     2.8     4.6     1.55.7     2.8     4.5     1.36.3     3.3     4.7     1.64.9     2.4     3.3     1.06.6     2.9     4.6     1.35.2     2.7     3.9     1.45.0     2.0     3.5     1.05.9     3.0     4.2     1.56.0     2.2     4.0     1.06.1     2.9     4.7     1.45.6     2.9     3.6     1.36.7     3.1     4.4     1.45.6     3.0     4.5     1.55.8     2.7     4.1     1.06.2     2.2     4.5     1.55.6     2.5     3.9     1.15.9     3.2     4.8     1.86.1     2.8     4.0     1.36.3     2.5     4.9     1.56.1     2.8     4.7     1.26.4     2.9     4.3     1.36.6     3.0     4.4     1.46.8     2.8     4.8     1.46.7     3.0     5.0     1.76.0     2.9     4.5     1.55.7     2.6     3.5     1.05.5     2.4     3.8     1.15.5     2.4     3.7     1.05.8     2.7     3.9     1.26.0     2.7     5.1     1.65.4     3.0     4.5     1.56.0     3.4     4.5     1.66.7     3.1     4.7     1.56.3     2.3     4.4     1.35.6     3.0     4.1     1.35.5     2.5     4.0     1.35.5     2.6     4.4     1.26.1     3.0     4.6     1.45.8     2.6     4.0     1.25.0     2.3     3.3     1.05.6     2.7     4.2     1.35.7     3.0     4.2     1.25.7     2.9     4.2     1.36.2     2.9     4.3     1.35.1     2.5     3.0     1.15.7     2.8     4.1     1.36.3     3.3     6.0     2.55.8     2.7     5.1     1.97.1     3.0     5.9     2.16.3     2.9     5.6     1.86.5     3.0     5.8     2.27.6     3.0     6.6     2.14.9     2.5     4.5     1.77.3     2.9     6.3     1.86.7     2.5     5.8     1.87.2     3.6     6.1     2.56.5     3.2     5.1     2.06.4     2.7     5.3     1.96.8     3.0     5.5     2.15.7     2.5     5.0     2.05.8     2.8     5.1     2.46.4     3.2     5.3     2.36.5     3.0     5.5     1.87.7     3.8     6.7     2.27.7     2.6     6.9     2.36.0     2.2     5.0     1.56.9     3.2     5.7     2.35.6     2.8     4.9     2.07.7     2.8     6.7     2.06.3     2.7     4.9     1.86.7     3.3     5.7     2.17.2     3.2     6.0     1.86.2     2.8     4.8     1.86.1     3.0     4.9     1.86.4     2.8     5.6     2.17.2     3.0     5.8     1.67.4     2.8     6.1     1.97.9     3.8     6.4     2.06.4     2.8     5.6     2.26.3     2.8     5.1     1.56.1     2.6     5.6     1.47.7     3.0     6.1     2.36.3     3.4     5.6     2.46.4     3.1     5.5     1.86.0     3.0     4.8     1.86.9     3.1     5.4     2.16.7     3.1     5.6     2.46.9     3.1     5.1     2.35.8     2.7     5.1     1.96.8     3.2     5.9     2.36.7     3.3     5.7     2.56.7     3.0     5.2     2.36.3     2.5     5.0     1.96.5     3.0     5.2     2.06.2     3.4     5.4     2.35.9     3.0     5.1     1.8 | 
每一列减去该列均值后,得到矩阵B:
| 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 | -0.743333       0.446       -2.35867        -0.998667      -0.943333       -0.054      -2.35867        -0.998667      -1.14333        0.146       -2.45867        -0.998667      -1.24333        0.046       -2.25867        -0.998667      -0.843333       0.546       -2.35867        -0.998667      -0.443333       0.846       -2.05867        -0.798667      -1.24333        0.346       -2.35867        -0.898667      -0.843333       0.346       -2.25867        -0.998667      -1.44333        -0.154      -2.35867        -0.998667      -0.943333       0.046       -2.25867        -1.09867       -0.443333       0.646       -2.25867        -0.998667      -1.04333        0.346       -2.15867        -0.998667      -1.04333        -0.054      -2.35867        -1.09867       -1.54333        -0.054      -2.65867        -1.09867       -0.0433333      0.946       -2.55867        -0.998667      -0.143333       1.346       -2.25867        -0.798667      -0.443333       0.846       -2.45867        -0.798667      -0.743333       0.446       -2.35867        -0.898667      -0.143333       0.746       -2.05867        -0.898667      -0.743333       0.746       -2.25867        -0.898667      -0.443333       0.346       -2.05867        -0.998667      -0.743333       0.646       -2.25867        -0.798667      -1.24333        0.546       -2.75867        -0.998667      -0.743333       0.246       -2.05867        -0.698667      -1.04333        0.346       -1.85867        -0.998667      -0.843333       -0.054      -2.15867        -0.998667      -0.843333       0.346       -2.15867        -0.798667      -0.643333       0.446       -2.25867        -0.998667      -0.643333       0.346       -2.35867        -0.998667      -1.14333        0.146       -2.15867        -0.998667      -1.04333        0.046       -2.15867        -0.998667      -0.443333       0.346       -2.25867        -0.798667      -0.643333       1.046       -2.25867        -1.09867       -0.343333       1.146       -2.35867        -0.998667      -0.943333       0.046       -2.25867        -1.09867       -0.843333       0.146       -2.55867        -0.998667      -0.343333       0.446       -2.45867        -0.998667      -0.943333       0.046       -2.25867        -1.09867       -1.44333        -0.054      -2.45867        -0.998667      -0.743333       0.346       -2.25867        -0.998667      -0.843333       0.446       -2.45867        -0.898667      -1.34333        -0.754      -2.45867        -0.898667      -1.44333        0.146       -2.45867        -0.998667      -0.843333       0.446       -2.15867        -0.598667      -0.743333       0.746       -1.85867        -0.798667      -1.04333        -0.054      -2.35867        -0.898667      -0.743333       0.746       -2.15867        -0.998667      -1.24333        0.146       -2.35867        -0.998667      -0.543333       0.646       -2.25867        -0.998667      -0.843333       0.246       -2.35867        -0.998667      1.15667     0.146       0.941333        0.201333       0.556667        0.146       0.741333        0.301333       1.05667     0.046       1.14133     0.301333       -0.343333       -0.754      0.241333        0.101333       0.656667        -0.254      0.841333        0.301333       -0.143333       -0.254      0.741333        0.101333       0.456667        0.246       0.941333        0.401333       -0.943333       -0.654      -0.458667       -0.198667      0.756667        -0.154      0.841333        0.101333       -0.643333       -0.354      0.141333        0.201333       -0.843333       -1.054      -0.258667       -0.198667      0.0566667       -0.054      0.441333        0.301333       0.156667        -0.854      0.241333        -0.198667      0.256667        -0.154      0.941333        0.201333       -0.243333       -0.154      -0.158667       0.101333       0.856667        0.046       0.641333        0.201333       -0.243333       -0.054      0.741333        0.301333       -0.0433333      -0.354      0.341333        -0.198667      0.356667        -0.854      0.741333        0.301333       -0.243333       -0.554      0.141333        -0.0986667     0.0566667       0.146       1.04133     0.601333       0.256667        -0.254      0.241333        0.101333       0.456667        -0.554      1.14133     0.301333       0.256667        -0.254      0.941333        0.00133333     0.556667        -0.154      0.541333        0.101333       0.756667        -0.054      0.641333        0.201333       0.956667        -0.254      1.04133     0.201333       0.856667        -0.054      1.24133     0.501333       0.156667        -0.154      0.741333        0.301333       -0.143333       -0.454      -0.258667       -0.198667      -0.343333       -0.654      0.0413333       -0.0986667     -0.343333       -0.654      -0.0586667      -0.198667      -0.0433333      -0.354      0.141333        0.00133333     0.156667        -0.354      1.34133     0.401333       -0.443333       -0.054      0.741333        0.301333       0.156667        0.346       0.741333        0.401333       0.856667        0.046       0.941333        0.301333       0.456667        -0.754      0.641333        0.101333       -0.243333       -0.054      0.341333        0.101333       -0.343333       -0.554      0.241333        0.101333       -0.343333       -0.454      0.641333        0.00133333     0.256667        -0.054      0.841333        0.201333       -0.0433333      -0.454      0.241333        0.00133333     -0.843333       -0.754      -0.458667       -0.198667      -0.243333       -0.354      0.441333        0.101333       -0.143333       -0.054      0.441333        0.00133333     -0.143333       -0.154      0.441333        0.101333       0.356667        -0.154      0.541333        0.101333       -0.743333       -0.554      -0.758667       -0.0986667     -0.143333       -0.254      0.341333        0.101333       0.456667        0.246       2.24133     1.30133    -0.0433333      -0.354      1.34133     0.701333       1.25667     -0.054      2.14133     0.901333       0.456667        -0.154      1.84133     0.601333       0.656667        -0.054      2.04133     1.00133    1.75667     -0.054      2.84133     0.901333       -0.943333       -0.554      0.741333        0.501333       1.45667     -0.154      2.54133     0.601333       0.856667        -0.554      2.04133     0.601333       1.35667     0.546       2.34133     1.30133    0.656667        0.146       1.34133     0.801333       0.556667        -0.354      1.54133     0.701333       0.956667        -0.054      1.74133     0.901333       -0.143333       -0.554      1.24133     0.801333       -0.0433333      -0.254      1.34133     1.20133    0.556667        0.146       1.54133     1.10133    0.656667        -0.054      1.74133     0.601333       1.85667     0.746       2.94133     1.00133    1.85667     -0.454      3.14133     1.10133    0.156667        -0.854      1.24133     0.301333       1.05667     0.146       1.94133     1.10133    -0.243333       -0.254      1.14133     0.801333       1.85667     -0.254      2.94133     0.801333       0.456667        -0.354      1.14133     0.601333       0.856667        0.246       1.94133     0.901333       1.35667     0.146       2.24133     0.601333       0.356667        -0.254      1.04133     0.601333       0.256667        -0.054      1.14133     0.601333       0.556667        -0.254      1.84133     0.901333       1.35667     -0.054      2.04133     0.401333       1.55667     -0.254      2.34133     0.701333       2.05667     0.746       2.64133     0.801333       0.556667        -0.254      1.84133     1.00133    0.456667        -0.254      1.34133     0.301333       0.256667        -0.454      1.84133     0.201333       1.85667     -0.054      2.34133     1.10133    0.456667        0.346       1.84133     1.20133    0.556667        0.046       1.74133     0.601333       0.156667        -0.054      1.04133     0.601333       1.05667     0.046       1.64133     0.901333       0.856667        0.046       1.84133     1.20133    1.05667     0.046       1.34133     1.10133    -0.0433333      -0.354      1.34133     0.701333       0.956667        0.146       2.14133     1.10133    0.856667        0.246       1.94133     1.30133    0.856667        -0.054      1.44133     1.10133    0.456667        -0.554      1.24133     0.701333       0.656667        -0.054      1.44133     0.801333       0.356667        0.346       1.64133     1.10133    0.0566667       -0.054      1.34133     0.601333        | 
2.计算B的协方差矩阵C:
| 1 2 3 4 | 0.685694        -0.0392685      1.27368     0.516904       -0.0392685      0.188004        -0.321713       -0.117981      1.27368     -0.321713       3.11318     1.29639    0.516904        -0.117981       1.29639     0.582414        | 
4.2248414     0       0       0 
0          0.24224437  0          0 
0          0       0.078524387   0 
0          0       0        0.023681839
V=
0.36158919   0.65654382   -0.58100304   0.3172364 
-0.082268924    0.72970845    0.596429220       -0.3240827 
0.85657212  -0.17576972 0.  072535217    -0.47971643 
0.35884438    -0.074704743    0.54904125    0.75113489
| 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 | 2.8271335      5.6413345     2.7959501      5.1451715     2.6215213      5.1773814     2.7649037      5.0036022     2.7827477      5.648651      3.2314432      6.0625092     2.6904502      5.2326213     2.8848587      5.4851323     2.6233824      4.7439288     2.837496       5.2080359     3.0048137      5.9666624     2.898198       5.3362466     2.7239067      5.0869876     2.2861405      4.8114466     2.867797       6.5009233     3.127471       6.6594805     2.8888143      6.132817      2.8630179      5.633864      3.3122624      6.1939719     2.9239945      5.8351996     3.2008088      5.7125959     2.9681058      5.7547583     2.2954831      5.4563413     3.2082122      5.4202505     3.1551697      5.2835156     3.0034234      5.1756719     3.0422848      5.4526144     2.9489496      5.6894119     2.8715193      5.634018      2.8784929      5.1246505     2.9228787      5.117334      3.1012632      5.7328089     2.8637038      6.1347075     2.9141809      6.4147479     2.837496       5.2080359     2.6443408      5.3919215     2.8861119      5.921529      2.837496       5.2080359     2.5294983      4.8344766     2.9210176      5.5507867     2.7412018      5.5857866     2.6591299      4.3818646     2.5130445      4.9804183     3.1058267      5.5106443     3.3025077      5.7574212     2.7956756      5.0720467     2.9737672      5.8250931     2.6710196      5.0941501     2.9686547      5.901008      2.8074283      5.4297384     6.7961349      6.0001695     6.4437514      5.6339266     6.9754017      5.8189198     5.6923082      4.4891254     6.5984751      5.3901207     6.1517776      4.8974035     6.6065644      5.5986187     4.759874       4.3136202     6.5546382      5.5436868     5.5011511      4.5941521     5.0002549      4.0522372     6.0224389      5.2124439     5.7736764      4.7668379     6.4953853      5.1903675     5.3364769      5.0629127     6.4389134      5.7829664     6.1709338      4.9627499     5.7458813      4.9828064     6.4537025      4.7729094     5.5545872      4.7332394     6.6275817      5.2305124     5.8681272      5.2479059     6.8078095      4.9871684     6.4318433      5.1323376     6.2253487      5.465109      6.4109813      5.6443412     6.8423818      5.5594003     7.0687368      5.5821223     6.3237964      5.1523966     5.204006       4.949643      5.440998       4.6121911     5.3194564      4.6372386     5.6463357      5.0030194     6.8900779      4.8935226     6.098616       4.8314411     6.3185463      5.5097803     6.7317694      5.722765      6.3242084      4.9440526     5.7565361      5.0479987     5.6758544      4.6350671     5.9743719      4.6452005     6.4015012      5.2809153     5.7402198      4.9124716     4.8042598      4.3063037     5.866874       4.8115092     5.8424678      5.1035466     5.8865791      5.0231053     6.1530309      5.3338002     4.6028777      4.5631602     5.8091488      4.9677114     8.0430681      5.3028838     6.9254133      4.7398024     8.1278252      5.6566652     7.4821558      5.1336016     7.8610989      5.2728454     8.9082203      5.8618983     6.0307247      4.123374      8.4433454      5.6671066     7.8310134      5.0691818     8.4294749      6.0951088     7.1732758      5.5567668     7.3136813      5.0985747     7.6767196      5.5300099     6.8559354      4.5383128     7.0966086      4.7754209     7.4160846      5.4335471     7.4605895      5.3554582     9.0001057      6.486272      9.3060273      5.5679974     6.8096707      4.5537158     7.939508       5.6915111     6.7094386      4.7091479     9.0106057      5.7715045     6.8990091      5.1106987     7.7871944      5.6481141     8.1255342      5.8730957     6.7689661      5.1355922     6.8020106      5.1983025     7.6341949      5.1038737     7.8989047      5.7772489     8.3523013      5.6874736     8.743683       6.6852526     7.6700793      5.0964032     6.9544433      5.170927      7.2909809      4.8132622     8.587862       6.0004966     7.6563279      5.453633      7.4162037      5.3627746     6.6801944      5.1502251     7.6189944      5.6862121     7.8256443      5.497338      7.4337916      5.7240021     6.9254133      4.7398024     8.0746635      5.5907028     7.9307322      5.6182322     7.4553579      5.5021455     7.0370045      4.9397096     7.2753867      5.3932482     7.4129702      5.430603      6.9010071      5.0318398 | 
每个样本正好是二维的,画在平面坐标系中如图:

鹫尾花数据集共分为3类花(前50个样本为一类,中间50个样本为一类,后50个样本为一类),从上图可以看到把数据集映射到2维后分类会更容易进行,直观上看已经是线性可分的了,下面我们用自组织映射网络对其进行聚类。
当然我们已知了有3类,所以在设计SOFM网络时,我把竞争层节点数设为3,此时的聚类结果是前50个样本聚为一类,后100个样本聚为一类。当把竞争层节点数改为4时,仅第2类中的3个样本被误分到了第3类中,整体精度达98%!
| #include<iostream>#include<fstream>#include<set>#include<cstdlib>#include<vector>#include<cmath>#include<ctime> usingnamespacestd; constintsample_num=150;      //鹫尾花样本个数constintclass_num=4;      //指定聚类的数目intiteration_ceil;      //迭代的上限vector<pair<double,double> > flowers(sample_num);      //样本数据vector<vector<double> > weight(class_num);   //权向量constdoubleprime_eta=0.7;     //初始学习率 /*向量模长归一化*/voidnormalize(vector<double> &vec){    doublesum=0.0;    for(inti=0;i<vec.size();++i)        sum+=pow(vec[i],2);    sum=sqrt(sum);    for(inti=0;i<vec.size();++i)        vec[i]/=sum;}/*从文件读入鹫尾花样本数据*/voidinit_sample(string filename){    ifstream ifs(filename.c_str());    if(!ifs){        cerr<<"open data file failed."<<endl;        exit(1);    }    for(inti=0;i<sample_num;++i){        vector<double> X(2);        ifs>>X[0]>>X[1];        normalize(X);       //输入向量模长归一化        flowers[i]=make_pair(X[0],X[1]);    }    ifs.close();}/*初始化权值*/voidinit_weight(){    srand(time(0));    for(inti=0;i<weight.size();++i){        vector<double> ele(2);        ele[0]=rand()/(double)RAND_MAX;        ele[1]=rand()/(double)RAND_MAX;        normalize(ele);     //权值向量模长归一化        weight[i]=ele;    }}/*根据输入,选择获胜者*/intpick_winner(doublex1,doublex2){    intrect=-1;    doublemax=0.0;    for(inti=0;i<weight.size();++i){        doubleproduct=x1*weight[i][0]+x2*weight[i][1];        if(product>max){            max=product;            rect=i;        }    }    returnrect;} intmain(intargc,char*argv[]){    cout<<"input iteration count"<<endl;    intcount;      //每个样本迭代的次数    cin>>count;    cout<<"input data file name"<<endl;    string filename;    cin>>filename;    iteration_ceil=count*sample_num;    init_sample(filename);    init_weight();         doubleeta=prime_eta;    doublegradient1=-1*9*prime_eta/iteration_ceil;    doublegradient2=-1*prime_eta/(9*iteration_ceil);    doubleb1=prime_eta;    doubleb2=prime_eta/9;    for(intiteration=0;iteration<iteration_ceil;++iteration){        intflower_index=iteration%sample_num;        doublex1=flowers[flower_index].first;        doublex2=flowers[flower_index].second;        intwinner=pick_winner(x1,x2);        /*更改获胜者的权值*/        weight[winner][0]+=eta*(x1-weight[winner][0]);        weight[winner][1]+=eta*(x2-weight[winner][1]);        /*权向量归一化*/        for(inti=0;i<weight.size();++i){            vector<double> W(2);            W[0]=weight[i][0];            W[1]=weight[i][1];            normalize(W);            weight[i][0]=W[0];            weight[i][1]=W[1];        }        /*更新学习率*/        if(iteration<0.1*iteration_ceil){   //在前10%的迭代中,学习率线性下降到原来的10%            eta=gradient1*iteration+b1;        }        else{       //后90%的迭代中线性降低到0            eta=gradient2*iteration+b2;        }    }     for(inti=0;i<sample_num;++i){        doublex1=flowers[i].first;        doublex2=flowers[i].second;        intwinner=pick_winner(x1,x2);        cout<<i+1<<"\t"<<winner+1<<endl;    }    return0;} | 
输出聚类结果:
| 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 | 1       22       23       24       25       26       27       28       29       210      211      212      213      214      215      216      217      218      219      220      221      222      223      224      225      226      227      228      229      230      231      232      233      234      235      236      237      238      239      240      241      242      243      244      245      246      247      248      249      250      251      452      453      454      455      456      457      458      459      460      461      462      463      464      465      466      467      468      469      170      471      472      473      174      475      476      477      478      479      480      481      482      483      484      185      486      487      488      489      490      491      492      493      494      495      496      497      498      499      4100     4101     1102     1103     1104     1105     1106     1107     1108     1109     1110     1111     1112     1113     1114     1115     1116     1117     1118     1119     1120     1121     1122     1123     1124     1125     1126     1127     1128     1129     1130     1131     1132     1133     1134     1135     1136     1137     1138     1139     1140     1141     1142     1143     1144     1145     1146     1147     1148     1149     1150     1 | 
主成份分析PCA的更多相关文章
- 吴裕雄 python 机器学习——主成份分析PCA降维
		# -*- coding: utf-8 -*- import numpy as np import matplotlib.pyplot as plt from sklearn import datas ... 
- PCA主成份分析
		1 背景介绍 真实的训练数据总是存在各种各样的问题: 1. 比如拿到一个汽车的样本,里面既有以“千米/每小时”度量的最大速度特征,也有“英里/小时”的最大速度特征,显然这两个特征有一个多余. 2. ... 
- 【主成份分析】PCA推导
		### 主成份分析(Pricipal components analysis PCA) 假设空间$R^{n}$中有m个点{$x^{1},......,x^{n}$},希望压缩,对每个$x^{i}$都有 ... 
- principal components analysis 主成份分析
		w http://deeplearning.stanford.edu/wiki/index.php/主成份分析 主成分分析(PCA)及其在R里的实现 - jicf的日志 - 网易博客 http:// ... 
- pca主成份分析方法
		1.应用pca的前提 应用pca的前提是,连续信号具有相关性.相关性是什么,是冗余.就是要利用pca去除冗余. 2.pca的定义 pca是一种去除随机变量间相关性的线性变换.是一种常用的多元数据分析方 ... 
- Spark 2.0 PCA主成份分析
		PCA在Spark2.0中用法比较简单,只需要设置: .setInputCol(“features”)//保证输入是特征值向量 .setOutputCol(“pcaFeatures”)//输出 .se ... 
- PCA主成份分析学习记要
		前言 主成份分析,简写为PCA(Principle Component Analysis).用于提取矩阵中的最主要成分,剔除冗余数据,同时降低数据纬度.现实世界中的数据可能是多种因数叠加的结果,如果这 ... 
- PCA--主成份分析
		主成份分析(Principle Component Analysis)主要用来对数据进行降维.对于高维数据,处理起来比较麻烦,而且高维数据可能含有相关的维度,数据存在冗余,PCA通过把高维数据向低维映 ... 
- 主元分析PCA理论分析及应用
		首先,必须说明的是,这篇文章是完完全全复制百度文库当中的一篇文章.本人之前对PCA比较好奇,在看到这篇文章之后发现其对PCA的描述非常详细,因此迫不及待要跟大家分享一下,希望同样对PCA比较困惑的朋友 ... 
随机推荐
- BZOJ1666: [Usaco2006 Oct]Another Cow Number Game 奶牛的数字游戏
			1666: [Usaco2006 Oct]Another Cow Number Game 奶牛的数字游戏 Time Limit: 5 Sec Memory Limit: 64 MBSubmit: 5 ... 
- 余弦距离、欧氏距离和杰卡德相似性度量的对比分析 by ChaoSimple
			1.余弦距离 余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量. 向量,是多维空间中有方向的线段,如果两个向量的方向一致,即夹角接近零,那么这两个向 ... 
- 未能导入activex控件,请确保它正确注册"的完美解决方案
			这个错误“未能导入activex控件,请确保它正确注册”昨天下午让我和我同事花费了3个小时来调试这个错误,在使用VS2010的winfrom编程时加入com组件的时候,报这个错误(以一个客户的机器上) ... 
- Google邮箱:Gmail国际顶级邮箱
			本博文的主要内容有 .Google邮箱的介绍 1.Google邮箱的介绍 https://zh.wikipedia.org/wiki/Gmail http://mail/google.com/ h ... 
- 向MyEclipse中导入项目要注意的问题
			如何导入 修改项目名称(路径) 修改类库 如何导入: 右键Package Explorer -> Import 如果是把别人的项目拷贝到自己的工程中,而且又改了项目名称,那么发布之前一定要改一个 ... 
- Subversion/Git/ReviewBoard工作流程
			根据My (work)Git Workflow进行修改,在 Windows下进行测试,http://mojodna.net/2009/02/24/my-work-git-workflow.html 目 ... 
- Android开发工具GenyMotion安装和使用方法
			好长时间没有再接触Android了,以至于GenyMotion出现这么久了,我还没有试用过,记得当时发布Android Studio时,当天我就开始试用了,好吧,看到GenyMotion这 ... 
- 使用Topshelf创建Windows 服务
			本文转载: http://www.cnblogs.com/aierong/archive/2012/05/28/2521409.html http://www.cnblogs.com/jys509/p ... 
- 新秀学习Hibernate——简单的增加、删、更改、检查操作
			部分博客使用Hibernate单的样例,把数据库的映射显示了出来在上一篇的博客基础上这篇博客讲述怎样利用Hinbernate框架实现简单的数据库操作. 1.增加junit.jar 2.新建一个工具类H ... 
- O2O的理解
			O2O 就是把线上和线下的优势完美结合,网上优惠价格,线下享受贴身服务!O2O 还可以实现不同商家的联盟 两年前的微博营销,现在没落了,那么微信营销呢,只能说来的太快了.线上来筛选服务和产品,所有的交 ... 
