2017年5月11日

PCA和KPCA的SVM形式

摘要: PCA的SVM形式 PCA的目标是找到合适投影方向实现方差最大化: $$ max_ \sum _ N (0-wTx_k)^2$$ 从目标出发还有一种表达: \(max _{w, e} J_P(w, e)= \gamma \frac{1}{2} \sum _{k=1} ^N e_k^2 -\frac{ 阅读全文

posted @ 2017-05-11 16:05 hainingwyx 阅读(1219) 评论(0) 推荐(0)

2017年5月10日

PCA 推导

摘要: 写在之前 时间充裕的话,可以从文末给出的参考链接中观看李正轩博士视频,本文是其讲课资料整理。 基本概念 对于给定0均值的训练样本${x_1, x_2, ...x_n} \in R ^d$, PCA的目的就是在空间$R^d$中,找p(p = v^T x_j$ 投影方差为; $$\sigma ^2 = 阅读全文

posted @ 2017-05-10 15:48 hainingwyx 阅读(1428) 评论(0) 推荐(0)

Kernel Method

摘要: 写在之前 时间充裕的话,可以从文末给出的参考链接中观看李正轩博士视频,本文是其讲课资料整理。 基本概念 设$\phi$实现$R^2 \rightarrow R^3 $的映射,即 $$(x_1, x_2) \rightarrow (z_1, z_2,z_3) = (x_1^2,\sqrt{x_1x_2 阅读全文

posted @ 2017-05-10 14:50 hainingwyx 阅读(499) 评论(0) 推荐(0)

Kernel PCA 推导

摘要: 算法原理 部分数据在低维度线性不可分,但映射到高维度时就可以实现线性划分。通过使用核的技巧就可以实现映射$x_i \rightarrow \phi_{x_i} $,并在映射得到的新的特征空间进行主成分分析。 推导方法1[1] 推导建立在PCA的基础上的。需要先掌握PCA。可以参考前一篇 "博客" 假 阅读全文

posted @ 2017-05-10 10:29 hainingwyx 阅读(1985) 评论(0) 推荐(0)

导航