特征选择方法

特征选择

当数据预处理完成后,我们需要选择有意义的特征输入机器学习的算法和模型进行训练。通常来说,从两个方面考虑来选择特征:

  1. 特征是否发散:如果一个特征不发散,例如方差接近于0,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。
  2. 特征与目标的相关性:这点比较显见,与目标相关性高的特征,应当优选选择。除方差法外,本文介绍的其他方法均从相关性考虑。  

根据特征选择的形式又可以将特征选择方法分为3种:

  1. Filter:过滤法,按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征。
  2. Wrapper:包装法,根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。
  3. Embedded:嵌入法,先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。类似于Filter方法,但是是通过训练来确定特征的优劣。  

我们使用sklearn中的feature_selection库来进行特征选择。

【特征工程】特征选择及mRMR算法解析
机器学习中,有哪些特征选择的工程方法?

简单而清晰:https://wlypku.github.io/2017/08/12/feature-selection/

posted @ 2018-09-19 09:47  静悟生慧  阅读(1129)  评论(0编辑  收藏  举报