线性降维-笔记(1)

1 - 线性降维

样本在高维情形下会出现数据样本稀疏(因为样本不是均匀分布在每个维度表示的空间中),距离计算困难(欧式距离也不如人想象的那么有效),可视化困难,容易过拟合等问题。所以不论是机器学习,还是人类理解角度,高维都是个不喜欢的话题(当然对于低维样本线性不可分而上升到高维线性可分的情形并不是这里指的情况)。

因为基于大多人类观测和收集到的样本,与学习任务密切相关的也许只是某些低维分布。所以如果适当的降维,可以让样本在所需维度上达到更密集的分布,且距离计算问题也能缓解不少。
一般来说,想要获得低维子空间,最简单的是对原始高维空间进行线性变换。给定\(d\)维空间中的样本\({\bf X}=({\bf x}_1,{\bf x}_2,...,{\bf x}_N)\in R_{d \times N}\),变换后得到\(d{'} \leq d\)维空间中的样本:

\[\bf X' = W^TX \]

其中\({\bf W} \in R^{d\times d{'}}\)是变换矩阵,\({\bf X'}\in R^{d{'}\times N}\)是样本在新坐标空间中的表达。变换矩阵\(\bf W\)可以看成是\(d'\)\(d\)维基向量,\({\bf x'}_i={\bf W}^T{\bf x}_i\)是第\(i\)个样本(即\(\bf X\)中的第\(i\)个列向量)与这\(d'\)个基向量分别做内积而得到的\(d'\)维特征列向量。\({\bf x'}_i\)同时也可以看成是第\(i\)\(d\)维的样本\({\bf x}_i\)在新坐标系\(\{{\bf w}_1,{\bf w}_2,...,{\bf w}_{d{'}}\}\)中的坐标向量,若\({\bf w}_i\)\({\bf w}_j\)\((i\neq j)\),则新的坐标系是一个正交坐标系(我们通常的\(x,y,z\)就是一个正交坐标系),此时\(\bf W\)为正交变换。显然,新空间中的特征是原空间中特征的线性组合。
基于线性变换来降维的方法称为线性降维方法,不同的线性降维方法基本上就是对低维子空间的性质有不同要求,对降维效果的评估,就是比较降维前后学习器的性能。其中主成分分析是一种无监督的线性降维方法,线性判别分析(LDA)是一种有监督线性降维方法。

2 - PCA

PCA是一种降维方法,其可以用来1)可视化;2)预处理;3)建模;4)压缩。
假设有\(N\)个样本\(\{{\bf x}_i\}\),其中每个样本都是\(d\)维:\({\bf x}_i\in R^d\)。我们的目标就是用更低维的样本表示\(\{{\bf x}_i'\}\)来代替这些高维样本,其中低维样本维度为\(d'\)\(d'<d\)
这可以看成是一个线性变换的形式:

\[\bf { x = Wx'+b}=\sum_{\cal i=1}^{d'}\bf {w}_{\cal i}x_{\cal i}'+b \tag{2.1} \]

其中\(\bf W\)是一个\(d\times d'\)的变换矩阵;\(x_i\)为一个低维样本表示的列向量,\({\bf w}_i\)为矩阵\(\bf W\)的第\(i\)个列向量。矩阵\(\bf W\)同样可以看成是\(d'\)个基向量即\(\bf W=[w_1,...,w_{d'}]\)。如果假定样本获取过程中会混入高斯噪音,那么该模型就是一个线性回归模型了,只是这里\(\bf x'\)是一个未知的线性参数。
为了学习这个模型,对该模型建立目标函数,这里采用最小二乘方法:

\[arg\min_{{\bf W,b},{{\bf x}_i'}}\quad \sum_i||{\bf x}_i-({\bf Wx}_i'+{\bf b})||^2\\ subject \quad to \quad {\bf W}^T{\bf W}=\bf I \tag{2.2}\]

这里的限制使得求得的变换矩阵式一个正交矩阵,即等同于:

\[{\bf w}_i^T{\bf w}_j=\begin{cases} 1 & i=j\\ 0 & i\neq j \end{cases}\]

其中\(\bf x'\)所在空间的坐标系为潜在坐标系。具体过程如下:
1)先计算原有样本矩阵基于样本的均值向量:

\[{\bf b}=\frac{1}{N}\sum_i{\bf x}_i \]

2):计算原有样本矩阵中心化后的协方差均值矩阵:

\[{\bf K}=\frac{1}{N}\sum_i({\bf x}_i-{\bf b})({\bf x}_i-{\bf b})^T \]

3):对上述矩阵进行矩阵分解,并计算其特征值和特征向量:

\[{\bf K}={\bf V\Lambda V^T} \]

其中\(\bf \Lambda\)是由特征值组成的对角矩阵\({\bf \Lambda}=diag(\lambda_1,...\lambda_d)\);\(\bf V\)是对应特征值的特征向量,且该矩阵是正交矩阵即,\({\bf V}=[{\bf V}_1,...{\bf V}_d]\)\(\bf V^TV=I\)
对特征值矩阵进行从大到小排序,选取足够多精度的特征值(即丢弃特征值较小的)
4):用保留的特征值对应的特征向量组成正交矩阵\({\bf W}=[{\bf V}_1,...{\bf V}_{d'}]\)
5):从而新的样本为\({\bf x}_i'={\bf W}^T({\bf x}_i-{\bf b})\),\(i\in{1,2,...,N}\)

2.1 为什么选取特征值较大的,而不是较小的

假设投影后空间的坐标系为\({\bf W} = \{{\bf w}_1,{\bf w}_2,{\bf w}_3,...{\bf w}_{d'}\}\),且其两两正交,且原始样本已经进行了中心化,即均值为0。原始样本\(\{{\bf x}_i\}\)在新空间中投影为\(\{{\bf x}_i'\}\),且\({x}_{ij}'={\bf w}_j^T{\bf x}_i\),是\(\{{\bf x}_i'\}\)在低维坐标系下第\(j\)维的坐标值。以此重构得到\(\hat {\bf x}_i={\bf Wx}_i'=\sum_{j=1}^{d'}{ x}_{ij}'{\bf w}_j\)
基于整个训练集,原样本点\({\bf x}_i\)与基于新空间样本点重构的样本点\(\hat {\bf x}_i\)之间距离为:

\[\begin{eqnarray}\sum_{i=1}^N\left|\left| \sum_{j=1}^{d'}x_{ij}'{\bf w}_j-{\bf x}_i\right|\right|_2^2 &=& \sum_{i=1}^N{\bf x'}_{i}^T{\bf x'}_i - 2\sum_{i=1}^N{\bf x'}_i^T{\bf W}^T{\bf x}_i+const\\ &=&-\sum_{i=1}^N{\bf x'}_i^T{\bf x'}_i+const\\ &=&-\sum_{i=1}^Ntr({\bf x'}_i{\bf x'}_i^T)+const\\ &=&-tr\left({\bf W}^T\left(\sum_{i=1}^N{\bf x}_i^T{\bf x}_i\right){\bf W}\right)+const\\ &=&-tr\left({\bf W}^T\left({\bf X}{\bf X}^T\right){\bf W}\right)+const \end{eqnarray} \tag{2.1.1}\]

因为训练集给定,所以基于当前训练集样本自我相乘可以看成是一个固定常数const。上式即PCA的目标函数。
假设当前得到了低维空间样本\(X'\),为了使在低维上尽可能分开,则应该使低维样本集的方差尽可能大。
投影到新空间的样本方差为:\(\sum_{i=1}^N{\bf x'}_i{\bf x'}_i^T\)\(\sum_{i=1}^N{\bf W}^T{\bf x}_i{\bf x}_i^T{\bf W}\)
等同于求样本矩阵相乘后的矩阵的迹,即:

\[\max_{\bf w} \quad tr({\bf W}^T{\bf XX}^T{\bf W})\\ s.t.\quad {\bf W}^T{\bf W}={\bf I}\]

通过使用拉格朗日乘子法:

\[f(x)=tr({\bf W}^T{\bf XX}^T{\bf W})+\lambda({\bf W^TW-I}) \]

因为有公式\(\frac{dtr(\bf X^TBX)}{d\bf X}=\bf BX+B^TX\),

将上式关于\(\bf W\)求导得:

\[2{\bf XX^TW}+2\lambda\bf W=0 \]

即$${\bf XX^TW}=\lambda\bf W$$
刚好是求\(\bf XX^T\)的特征值问题

3 - LDA

ps:这里所说的LDA用来降维指的是1936年fisher的论文
决策分析是分类问题的一个生成模型方法,需要对特征拟合一个多元高斯变量模型,正如之前说的,这在高维情况下问题比较棘手,所以如果能将特征从\(d\)维降低到\(d'\)维,那么困难就能缓解一些。最简单的线性投影方法,也就是\({\bf X'}=\bf W^TX\)。PCA是一种寻找\(\bf W\)的无监督方法,可是却没利用上当样本有标签时候的标签信息;一种代替方法就是使用高斯条件类别密度模型(gaussian class-conditional density model).该方法的合理之处在于我们只是计算潜在特征(非高斯)的线性组合而已。该方法也叫做fisher的线性决策分析(FLDA).
FLDA是一种决策和生成方法的混合模型,它的缺点在于其映射后的维度\(d'<|c|-1\)这里\(|c|\)是类别个数。例对于2类问题,那么只能寻找一个向量\(\bf w\)来作为变化矩阵。

3.1 两类问题

对于2类问题,先分别求出不同类别的均值向量:

\[{\bf \mu}_1=\frac{1}{N}\sum_{i:{c_1}}{\bf x}_i;{\bf \mu}_2=\frac{1}{N}\sum_{i:{c_2}}{\bf x}_i\tag{3.1.1} \]

假设均值向量映射在某个1维坐标(一条直线)后,得\(m_k={\bf w}^T{\bf \mu}_k\)且每个样本映射后\(x'_i={\bf w}^T{\bf x}_i\),那么投影后新样本点的方差正比于:

\[s_k^2=\sum_{i:c_k}(x'_i-m_k)^2\tag{3.1.2} \]

当前目标是找到能够让在新样本空间中类间距离最大,类内距离最小,即:

\[\max J({\bf w})=\frac{(m_2-m_1)^2}{s_1^2+s_2^2}\tag{3.1.3} \]

将上式写成关于\(\bf w\)的式子:

\[ \begin{eqnarray}\max J({\bf w}) &=&\frac{({\bf w}^T{\bf \mu}_2-{\bf w}^T{\bf \mu}_1)({\bf w}^T{\bf \mu}_2-{\bf w}^T{\bf \mu}_1)}{\sum_{i:c_1}({\bf w}^T{\bf x}_i-{\bf w}^T{\bf \mu}_1)^2+\sum_{i:c_2}({\bf w}^T{\bf x}_i-{\bf w}^T{\bf \mu}_2)^2}\\ &=&\frac{{\bf w^T\mu}_2{\bf w^T\mu}_2-{\bf w^T\mu}_2{\bf w^T\mu}_1-{\bf w^T\mu}_1{\bf w^T\mu}_2+{\bf w^T\mu}_1{\bf w^T\mu}_1}{\sum_{i:c_1}({\bf w}^T{\bf x}_i-{\bf w}^T{\bf \mu}_1)^2+\sum_{i:c_2}({\bf w}^T{\bf x}_i-{\bf w}^T{\bf \mu}_2)^2}\\ &=&\frac{{\bf w^T\mu}_2\mu_2^T{\bf w}-{\bf w^T\mu}_2\mu_1^T{\bf w}-{\bf w^T\mu}_1\mu_2^T{\bf w}+{\bf w^T\mu}_1\mu_1^T{\bf w}}{...}\\ &=&\frac{{\bf w}^T(\mu_2\mu_2^T-\mu_1\mu_2^T-\mu_2\mu_1^T+\mu_1\mu_1^T){\bf w}}{...}\\ &=&\frac{{\bf w^TS_Bw}}{\bf w^TS_Ww} \end{eqnarray}\tag{3.1.4}\]

上式只做了分子的运算,分母运算省略了,且因为新空间是1维样本,所以\({\bf w^T\mu}_2=({\bf w^T\mu}_2)^T=\mu_2^T{\bf w}\)
其中\(\bf S_B\)是类别之间的距离矩阵:
\({\bf S_B}=({\bf \mu_2-\mu_1})({\bf \mu_2-\mu_1})^T\tag{3.1.5}\)
\(\bf S_W\)是类间距离矩阵:
\({\bf S_W}=\sum_{i:c_1}({\bf x}_i-\mu_1)({\bf x}_i-\mu_1)^T+\sum_{i:c_2}({\bf x}_i-\mu_2)({\bf x}_i-\mu_2)^T\tag{3.1.6}\)

因为式子3.1.3分子分母都是标量,故而,3.1.4可以表示成:

\[{\bf S_Bw}=\lambda {\bf S_Ww} \]

即转换成了一个求特征值的问题,如果\({\bf S_W}\)可逆的话,则:

\[{\bf S_W^{-1}}{\bf S_Bw}=\lambda{\bf w} \]

\({\bf S_Bw}=(\mu_2-\mu_1)(\mu_2-\mu_1)^T{\bf w}=(\mu_2-\mu_1)(m_2-m_1)\)
所以:

\[\lambda{\bf w}={\bf S_W^{-1}}(\mu_2-\mu_1)(m_2-m_1) \]

左右消去标量值,因为只关心坐标系,即方向,而不关心缩放因子,即缩放多少,所以:

\[{\bf w}={\bf S_W^{-1}}(\mu_2-\mu_1)\frac{m_2-m_1}{\lambda} \]

故而最后可以直接取:\({\bf w}={\bf S_W^{-1}}(\mu_2-\mu_1)\)

3.2 多类问题

因为主旨还是为了新空间中类间最大,类内最小的fisher准则。因为LDA的限制,\(d'\leq |c|-1\)
假定类别\(k\)的样本均值以及所有类的样本均值为:

\[\mu_{c_k}=\sum_{i:c_k}\frac{1}{N_{c_k}}{\bf x}_i;\quad \mu=\sum_{i:c}\frac{1}{N_{c}}{\bf x}_i=\sum_{k=1}^{|c|}P_k\mu_k\tag{3.2.1} \]

假设\({\bf x}_i^k,{\bf x}_j^l\)分别为类\(c_k,c_l\)类的原始\(d\)维特征向量,\(\delta({\bf x}_i^k,{\bf x}_j^l)\)为这两个向量的距离,则各类特征向量之间的平均距离为:

\[D_d({\bf x})=\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\frac{1}{N_kN_l}\sum_{i=1}^{N_k}\sum_{j=1}^{N_l}\delta({\bf x}_i^k,{\bf x}_j^l)\tag{3.2.2} \]

其中\(|c|\)为类别个数,\(N_k,N_l\)为对应类别中样本个数,\(P_k,P_l\)为对应类别的先验概率。
对于简单的欧式距离来说:

\[\delta({\bf x}_i^k,{\bf x}_j^l)=({\bf x}_i^k-{\bf x}_j^l)^T({\bf x}_i^k-{\bf x}_j^l)\tag{3.2.3} \]

将3.2.3,3.2.1带入3.2.2,得

\[\begin{eqnarray}D_d({\bf x}) &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\frac{1}{N_kN_l}\sum_{i=1}^{N_k}\sum_{j=1}^{N_l}\delta({\bf x}_i^k,{\bf x}_j^l)\\ &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\frac{1}{N_kN_l}\sum_{i=1}^{N_k}\sum_{j=1}^{N_l}\left(({\bf x}_i^k)^T{\bf x}_i^k-({\bf x}_i^k)^T{\bf x}_j^l-({\bf x}_j^l)^T{\bf x}_i^k+({\bf x}_j^l)^T{\bf x}_j^l\right)\\ &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\frac{1}{N_k}\sum_{i=1}^{N_k}\left(({\bf x}_i^k)^T{\bf x}_i^k-({\bf x}_i^k)^T\mu_l-\mu_l^T{\bf x}_i^k+\frac{1}{N_l}\sum_{j=1}^{N_l}({\bf x}_j^l)^T{\bf x}_j^l\right)\\ &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\left(\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf x}_i^k)^T{\bf x}_i^k-2\mu_k^T\mu_l+\frac{1}{N_l}\sum_{j=1}^{N_l}({\bf x}_j^l)^T{\bf x}_j^l\right)\\ &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\left(\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf x}_i^k)^T{\bf x}_i^k+\frac{1}{N_l}\sum_{j=1}^{N_l}({\bf x}_j^l)^T{\bf x}_j^l-\mu_k^T\mu_k-\mu_l^T\mu_l+\mu_k^T\mu_k+\mu_l^T\mu_l-2\mu_k^T\mu_l\right)\\ &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\left(\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf x}_i^k)^T{\bf x}_i^k+\frac{1}{N_l}\sum_{j=1}^{N_l}({\bf x}_j^l)^T{\bf x}_j^l-\mu_k^T\mu_k-\mu_l^T\mu_l\right)+\sum_{i=1}^{|c|}P_k(\mu_k-\mu)^T(\mu_k-\mu)\\ &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l\left(\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf x}_i^k)^T{\bf x}_i^k-\mu_k^T(\frac{1}{N_k}\sum_{i=1}^{N_k}{\bf x}_i)-(\frac{1}{N_k}\sum_{i=1}^{N_k}{\bf x}_i)^T\mu_k+\mu_k^T\mu_k\right)+与k对称的l+上面第2项\\ &=&\frac{1}{2}\sum_{k=1}^{|c|}P_k\left(\sum_{l=1}^{|c|}P_l\right)\left(\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf x}_i^k-\mu_k)^T({\bf x}_i^k-\mu_k)\right)+与k对称的l+上面第3项\\ &=&\sum_{k=1}^{|c|}P_k\left[\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf x}_i^k-\mu_k)^T({\bf x}_i^k-\mu_k)+(\mu_k-\mu)^T(\mu_k-\mu)\right] \end{eqnarray}\]

上式中括号第二项为第\(k\)类的均值向量与总体均值向量之间的欧式距离,用先验概率加权平均后可以代表各类均值向量的平均平方距离,即类间距离:

\[\sum_{i=1}^{|c|}P_k(\mu_k-\mu)^T(\mu_k-\mu)=\frac{1}{2}\sum_{k=1}^{|c|}P_k\sum_{l=1}^{|c|}P_l(\mu_k-\mu_l)^T(\mu_k-\mu_l) \]

令:
\({\bf S_B}= \sum_{i=1}^{|c|}P_k(\mu_k-\mu)(\mu_k-\mu)^T\)
${\bf S_W}=\sum_{k=1}{|c|}P_k\left[\frac{1}{N_k}\sum_{i=1}{N_k}({\bf x}_i^k-\mu_k)({\bf x}_ik-\mu_k)T\right] \( 那么\)D_d({\bf x})=tr({\bf S_B}+{\bf S_W})\( 因为对于原始空间,\)\max J_d({\bf x})=\frac{tr({\bf S_B})}{tr({\bf S_W})}\(~\)\frac{|{\bf S_B}|}{|{\bf S_W}|}$

\[\begin{eqnarray}\max J_d'({\bf x}) &=&\frac{|\sum_{i=1}^{|c|}P_k({\bf W}^T\mu_k-{\bf W}^T\mu)({\bf W}^T\mu_k-{\bf W}^T\mu)^T|}{|\sum_{k=1}^{|c|}P_k\left[\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf W}^T{\bf x}_i^k-{\bf W}^T\mu_k)({\bf W}^T{\bf x}_i^k-{\bf W}^T\mu_k)^T\right]|}\\ &=&\frac{|{\bf W}^T\sum_{i=1}^{|c|}P_k(\mu_k-\mu)(\mu_k-\mu)^T{\bf W}|}{|{\bf W}^T\sum_{k=1}^{|c|}P_k\left[\frac{1}{N_k}\sum_{i=1}^{N_k}({\bf x}_i^k-\mu_k)({\bf x}_i^k-\mu_k)^T\right]{\bf W}|}\\ &=&\frac{|{\bf W}^T{\bf S_B}{\bf W}|}{|{\bf W}^T{\bf S_W}{\bf W}|}\\ \end{eqnarray}\]

上式可以如2类情况一样得到结果:

\[{\bf S_B}{\bf W}=\lambda{\bf S_W}{\bf W} \]

\({\bf S_W}\)非奇异时,可得:

\[{\bf S_W^{-1}}{\bf S_B}{\bf W}=\lambda{\bf W} \]

即。得到最后的解(个人认为mlapp这部分有问题,prml这部分是对的):
\({\bf W}\)就是矩阵\({\bf S_W^{-1}}{\bf S_B}\)的前\(d'\)个特征向量构成的矩阵(从大到小的特征值排序)

ps:矩阵的秩小于等于各个相加矩阵的秩的和,所以一共\(|c|\)类,那么\({\bf S_B}\)的秩最多为\(|c|-1\)(第\(|c|\)个矩阵可以通过前面矩阵线性表示出来)。

参考资料:
[] 周志华 机器学习
[] Computer Science Department University of Toronto. Machine Learning and Data Mining Lecture Notes
[] Machine learning A Probabilistic Perspective
[] 边肇祺,模式识别第二版
[] http://www.cnblogs.com/jerrylead/archive/2011/04/21/2024384.html
[] Introduction to Statistical Pattern Recognition 2nd ed. - K. Fukunaga p454
[] prml p192

posted @ 2018-10-11 16:22  仙守  阅读(449)  评论(0编辑  收藏  举报