摘要:
熵(entropy) 是表示随机变量不确定性的度量(纯度),如果信息的不确定性越大,熵的值也就越大 信息增益(information gain):表示由于特征A使得对数据集D的分类的不确定性减少的程度。==》max 基尼指数:一个节点越“纯”,也就是说这个节点的样本越多属于同类,那么Gini指标越小 阅读全文
posted @ 2020-10-23 17:12
happygril3
阅读(287)
评论(0)
推荐(0)

浙公网安备 33010602011771号