2020年10月23日

摘要: 熵(entropy) 是表示随机变量不确定性的度量(纯度),如果信息的不确定性越大,熵的值也就越大 信息增益(information gain):表示由于特征A使得对数据集D的分类的不确定性减少的程度。==》max 基尼指数:一个节点越“纯”,也就是说这个节点的样本越多属于同类,那么Gini指标越小 阅读全文
posted @ 2020-10-23 17:12 happygril3 阅读(287) 评论(0) 推荐(0)

导航