主成分分析(转)

PCA的介绍,实例及绘图

PCA的介绍

    多元统计分析中普遍存在的困难中,有一个困难是多元数据的可视化。matlab的plot可以显示两个变量之间的关系,plot3和surf可以显示三维的不同。但是当有多于3个变量时,要可视化变量之间的关系就很困难了。

    幸运的是,在一组多变量的数据中,很多变量常常是一起变动的。一个原因是很多变量是同一个驱动影响的的结果。在很多系统中,只有少数几个这样的驱动,但是多余的仪器使我们测量了很多的系统变量。当这种情况发生的时候,你需要处理的就是冗余的信息。而你可以通过用一个简单的新变量代替这组变量来简化此问题。

    主成分分析是一个定量的严格的可以起到简化作用的方法。它产生一组叫做主成分的新变量,每一个主成分是原始变量的线性组合。所有主成分是相互正交的,从而不存在冗余的信息。所有主成分形成了原始数据空间的一组正交基。

    但是有无数种方式来创建一组正交基,那主成分正交基有什么特殊之处呢?

    第一主成分是数据空间的一个轴。当你把各观察值投影到这个轴时,结果会形成一个新变量,这个变量的方差是所有可选的轴中最大的。

    第二主成分是空间的另一个轴,它垂直于第一个轴。投影数据到这个轴上将得到另一组变量,此变量的方差是所有可选的轴中最大的。

    最后得到的所有主成分个数是与原始变量相同的,但是通常前几个主成分方差的和占到了原始数据总方差的80%以上。通过绘制这组新变量,研究者常常会更深入的了解产生原始数据的驱动力。

    在matlab中,可以使用princomp函数来找到主成分,通过使用此函数,你需要用到测量的原始数据。然而,如果你缺少这些数据,但是有这些数据的样本自相关或协方差矩阵,你可以通过使用pcacov函数来做主成分分析。

 

主成分分析的实例

计算成分

    考虑一个例子,它使用了衡量美国329个城市生活质量的9个指标:气候、住房、健康、犯罪率、交通、教育、艺术、娱乐和经济。对于各指标,越高表示越好,如高的犯罪指标表示低的犯罪率。

    先从cities.mat中加载数据

>> load cities

>> whos

Name Size Bytes Class Attributes

categories 9x14 252 char

names 329x43 28294 char

ratings 329x9 23688 double

    cities.mat中包含了3个变量:

categories--一个包含各指标名字的字符串矩阵

names--一个包含329个城市名字的字符串矩阵

ratings--329行9列的数据矩阵

    为快速对ratings数据有个直观的印象,可以使用盒图绘制出数据来

boxplot(ratings,'orientation','horizontal','labels',categories)

42690282

    可以注意到大体上艺术和住房的指标要比犯罪和气候的指标有更大的变异性。

    通常你会考虑绘制各对原始变量,但这将有36对变量图。而主成分分析或许会降低你需要考虑的变量个数。

有时对原始数据计算主成分是可以的,这在各变量是相同的单位时是很合适的。但是当变量单位不同或不同列数据的方差相差很大时,先对数据做标准化是更好的。

    可以通过除以各列标准差来标准化数据,如下

stdr = std(ratings);

sr = ratings./repmat(stdr,329,1);

    这样就为找主成分做好准备了。

 

[coefs,scores,variances,t2] = princomp(sr);

    下面各部分解释了princomp函数的输出。

Component Coeffcients

    coefs包含了产生主成分的原始变量线性组合的系数,它常被称为loadings。它是9X9的矩阵,前三个主成分的系数向量为

>> c3 = coefs(:,1:3)

c3 =

0.2064 -0.2178 0.6900

0.3565 -0.2506 0.2082

0.4602 0.2995 0.0073

0.2813 -0.3553 -0.1851

0.3512 0.1796 -0.1464

0.2753 0.4834 -0.2297

0.4631 0.1948 0.0265

0.3279 -0.3845 0.0509

0.1354 -0.4713 -0.6073

    可以看到在第一主成分中最大的系数是第三个和第七个,即健康和艺术。此主成分的所有系数都是正的。

    主成分通常是单位长且正交的

I = c3'*c3

I =

1.0000 -0.0000 -0.0000

-0.0000 1.0000 -0.0000

-0.0000 -0.0000 1.0000

 

Component Scores

    scores包含了原始数据在被主成分定义的新坐标系统中的坐标,它是和原始数据矩阵同大小的。

    绘制scores的前两列可以展示原始数据投影到前两个主成分的新数据。princomp函数计算的scores具有零均值。

plot(scores(:,1),scores(:,2),'+')

xlabel('1st Principal Component')

ylabel('2nd Principal Component')

4666816

    注意到上图中右边的离群点。函数gname可以用于标出这些离群点,调用gname时传入一个string矩阵,它包含了各点的标签,如下

gname(names)

    移动鼠标在右半部分的点点击,当你点击各点的时候,在点上会标记names中对应的字符串,如下

5122292

    从上面的标记,发现这些离散点是美国一些人口比较多的城市,它们明显与其他数据不同,所以它们可能需要被分离开。为移除这些数据,首先识别这些数据的行,方法如下

1.关闭上面的figure

2.重绘plot

plot(scores(:,1),scores(:,2),'+')

xlabel('1st Principal Component');

ylabel('2nd Principal Component');

3.运行gname函数,如输入参数

4.标记离散点,标记自动为这些数据的行数

5860676

    然后创建一个包含这些点的变量

metro = [43 65 179 213 234 270 314];

names(metro,:)

ans =

Boston, MA

Chicago, IL

Los Angeles, Long Beach, CA

New York, NY

Philadelphia, PA-NJ

San Francisco, CA

Washington, DC-MD-VA

    然后移除这些行

rsubset = ratings;

nsubset = names;

nsubset(metro,:) = [];

rsubset(metro,:) = [];

size(rsubset)

ans =

322 9

 

Component Variances

    variances是一个包含了主成分方差的向量,scores的每一列的方差即为variances对应的项

variances

variances =

3.4083

1.2140

1.1415

0.9209

0.7533

0.6306

0.4930

0.3180

0.1204

    你可以很容易的计算所有差异性占到百分比

percent_explained = 100*variances/sum(variances)

percent_explained =

37.8699

13.4886

12.6831

10.2324

8.3698

7.0062

5.4783

3.5338

1.3378

    使用pareto函数可以以图的方式显示此百分比

pareto(percent_explained)

xlabel('Principal Component')

ylabel('Variance Explained (%)')

6529640

    显示的figure中可以看到第一主成分明显比第二主成分要高很多,但它只解释了不到40%的方差,所以需要使用更多的成分。可以看到前三个主成分解释了三分之二的方差,所以这三个成分可以作为一个理想的方式来降低维数。

 

Hotelling's T2

    t2是一个衡量各观测值离数据中心距离的统计量,这是一个找出数据中极值点的有效分析方法。

[st2, index] = sort(t2,'descend'); % Sort in descending order.

extreme = index(1)

extreme =

213

names(extreme,:)

ans =

New York, NY

    这个极值点是不奇怪的,因为Vew York的ratings是离美国城镇平均值是最远的。

 

结果可视化

    使用biplot函数可以帮助我们可视化各变量的主成分的系数和各观察值的主成分scores。如下,

biplot(coefs(:,1:2), 'scores',scores(:,1:2),...

'varlabels',categories);

axis([-.26 1 -.51 .51]);

7520979

    上图中,9个变量以向量的形式呈现出来,向量的方向和长度表示了各变量对两个主成分的贡献。例如,对于第一主成分,对所有9个变量的系数都是正值。对于第 二主成分,变量教育、健康、艺术和交通是正的贡献,其他5个是负的贡献。这表明此成分在不同城市间是有区别的:大的值的变量、小的值的变量和负值的变量。

    上图中变量标签有时候会很拥挤,可以在绘图时在varlabels参数中忽略一些,或在figure的编辑模式下选中并移动它们。可以使用Tools下的Data Cursors功能查看图中的信息

8587028

    biplot函数也可以用于绘制三维的信息

biplot(coefs(:,1:3), 'scores',scores(:,1:3),...

'obslabels',names);

axis([-.26 1 -.51 .51 -.61 .81]);

view([30 40]);

8673062

 

matlab实现主成分分析 princomp函数

最近看了些主成分分析,混迹Matlab论坛,翻了n多帖子,对princomp函数有了些了解。

在此只讲一些个人理解,并没有用术语,只求通俗。

贡献率:每一维数据对于区分整个数据的贡献,贡献率最大的显然是主成分,第二大的是次主成分......

[coef,score,latent,t2] = princomp(x);(个人观点):

x:为要输入的n维原始数据。带入这个matlab自带函数,将会生成新的n维加工后的数据(即score)。此数据与之前的n维原始数据一一对应。

score:生成的n维加工后的数据存在score里。它是对原始数据进行的分析,进而在新的坐标系下获得的数据。他将这n维数据按贡献率由大到小排列。(即在改变坐标系的情况下,又对n维数据排序)

latent:是一维列向量,每一个数据是对应score里相应维的贡献率,因为数据有n维所以列向量有n个数据。由大到小排列(因为score也是按贡献率由大到小排列)。

coef:是系数矩阵。通过cofe可以知道x是怎样转换成score的。

 

则模型为从原始数据出发:
score= bsxfun(@minus,x,mean(x,1))*coef;(作用:可以把测试数据通过此方法转变为新的坐标系)
逆变换:
x= bsxfun(@plus,score*inv(coef),mean(x,1))

例子:

View Code
 

上图是通过自带函数绘制,当贡献率累加至95%,以后的维数会不在显示,最多只显示10维。

下面用自己编写的表示:

之前的错误认识:

1.认为主成分分析中latent显示的贡献值是原始数据的,其实是加工后的数据的。解释:对原始数据既然选择PCA方法,那么计算机认为原始数据每维之间可能存在关联,你想去掉关联、降低维数。所以采用这种方法的。所以计算机并不关心原始数据的贡献值,因为你不会去用了,用的是加工后的数据(这也是为什么当把输入数据每一维的顺序改变后,score、latent不受影响的原因)。

2.认为PCA分析后自动降维,不对。PCA后会有贡献值,是输入者根据自己想要的贡献值进行维数的改变,进而生成数据。(一般大家会取贡献值在85%以上,要求高一点95%)。

3.PCA分析,只根据输入数据的特征进行主成分分析,与输出有多少类型,每个数据对应哪个类型无关。如果样本已经分好类型,那PCA后势必对结果的准确性有一定影响,我认为对于此类数据的PCA,就是在降维与准确性间找一个平衡点的问题,让数据即不会维数多而使运算复杂,又有较高的分辨率。

posted @ 2016-01-25 01:01  Hand&Head  阅读(4570)  评论(0编辑  收藏  举报