Fork me on GitHub

《机器学习Python实现_10_15_集成学习_lightgbm_进一步优化》

lightgbm是继xgboost之后的又一大杀器,它训练速度快,且精度高,下面就其主要创新点做介绍,本文主要参考自>>>

一.单边梯度采样算法

GOSS(Gradient-based One-Side Sampling)是一种样本采样方法,它基于梯度的绝对值对样本进行采样,主要包含如下几个步骤:

(1)对梯度的绝对值进行降序排序,选择前\(a*100\%\)个样本;

(2)从剩下的小梯度数据中随机选择\(b*100\%\)个样本,为了不破坏原始数据的分布特性,对这\(b*100\%\)个样本权重扩大\(\frac{1-a}{b}\)倍(代价敏感学习)

(3)将这\((a+b)*100\%\)个样本用作为下一颗树的训练

算法流程如下:

二.互斥特征捆绑算法

EFB(Exclusive Feature Bundling)可以粗略的理解为one-hot的逆过程,我们可以将这个过程拆解为两步:

(1)第一步,需要寻找那些特征进行捆绑,理想情况下所选择的几个特征,每行只有一个非0值,但现实数据可能没有那么离线,lgb用了一种允许一定误差的图着色算法求解:

(2)第二步,便是合并这些特征,如果直接合并其实是有问题的,比如下面第一张图片,因为第一列特征的取值1和第二列特征的取值1其实具有不同含义,所以lgb的做法是对每一列加上一个bias,这个bias为前面所有特征列的max取值之和,如下面第二张图例所示:

算法流程如下,但有一点需要注意是,计算特征的切分点是在各自的range内计算的,如上图,虽然合并后为一列特征,但需要分别在[1,2],[3,4],[5,8]这三个区间内分别计算一个切分点

三.类别特征优化

类别特征,特别是高基类别特征的处理一直很棘手,比如日期,id等特征,如果按照常规方法对其作one-hot展开,在训练决策树时会切分出很多不平衡的结点来(比如左节点样本数远大于右节点),这本质是一种one-vs-rest的切分方法,收益很低,决策树还容易过拟合,而lgb提出了使用many-vs-many的方法对类别特征进行划分,这样既能平衡左右节点的训练样本量,又能一定程度上避免过拟合,示例如下(图中决策判断条件如果为True则走左分支,否则走右边):

当然,如果暴力搜索时间复杂度会有些高,假如某类别特征有\(k\)种取值的可能,那么共有如下的\(2^{k-1}-1\)种搜索结果,时间复杂度为\(O(2^k)\)

\[C_k^1+C_k^2+\cdots+C_k^{k//2}=2^{k-1}-1 \]

lgb基于《On Grouping For Maximum Homogeneity》实现了时间复杂度为\(O(klogk)\)的求法


posted @ 2021-07-04 19:57  努力的番茄  阅读(183)  评论(0编辑  收藏  举报