sklearn学习札记

 

降维 参考网址http://dataunion.org/20803.html

【低方差滤波 (Low Variance Filter)】需先对数据做归一化处理

【高相关滤波】认为当两列数据变化趋势相似时,它们包含的信息也相似

【随机森林】对目标属性产生许多巨大的树,然后根据对每个属性的统计结果找到信息量最大的特征子集。如果一个属性经常成为最佳分裂属性,那么它很有可能是需要保留的信息特征

【主成分分析 (PCA)】需先对数据做归一化处理,核心正交变换。 PCA 变换后会丧失数据的解释性

【反向特征消除 (Backward Feature Elimination)】

【前向特征构造 (Forward Feature Construction)】

Principal component analysis (PCA) 参考网址http://blog.csdn.net/u012162613/article/details/42192293

使用奇异值分解并保留大部分有用信息的线性降维方法。用scipy.linalg完成奇异值分解(仅适用于方阵和小型数据)。时间复杂度n^3

参数:

n_components(int, None or string)

默认n_components == min(n_samples, n_features)

n_components == ‘mle’ 猜测

 

copy : bool

False,传入训练模型的数据将被覆盖,需用fit_transform(X),而非fit(X).transform(X)

whiten : bool, optional

默认False

True

posted @ 2016-02-18 10:19  python挖掘  阅读(403)  评论(0编辑  收藏  举报