上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 33 下一页
摘要: 袋外错误率(Out-of-Bag Error)是在使用自助采样(Bootstrap Sampling)构建集成模型时的一个重要评估指标,尤其是在随机森林中常被使用。在自助采样中,由于每个模型的训练集都是通过有放回地从原始数据集中采样得到的,一部分样本可能没有被采样到,这部分未被采样到的样本称为袋外样 阅读全文
posted @ 2023-11-16 09:47 王哲MGG_AI 阅读(967) 评论(0) 推荐(0)
摘要: 在构建随机森林时的一个关键参数:特征子集的选择数量 m。在随机森林中,每次分裂节点时都是从当前节点的 m 个特征子集中选择最优的特征来进行分裂。这种特征选择的方式有助于引入随机性,增加模型的多样性,提高整体模型的泛化性能。 让我们逐步解释这段话中的关键概念: 每个样本的特征维度为 M: 假设我们有一 阅读全文
posted @ 2023-11-16 09:36 王哲MGG_AI 阅读(270) 评论(0) 推荐(0)
摘要: 剪枝(Pruning)是决策树中用于减小过拟合风险的一种技术。在构建决策树的过程中,为了在训练集上达到更好的拟合,模型可能会变得过于复杂,导致在未见过的数据上表现不佳。剪枝通过修剪掉一些树的部分来降低模型的复杂度,从而提高模型在新数据上的泛化性能。 剪枝分为两种类型:预剪枝(Pre-Pruning) 阅读全文
posted @ 2023-11-16 09:21 王哲MGG_AI 阅读(96) 评论(0) 推荐(0)
摘要: 过拟合(Overfitting)是指机器学习模型在训练数据上表现得太好,以至于无法很好地泛化到未见过的数据。过拟合的模型在训练数据上表现良好,但在新的、未见过的数据上表现较差。这是因为模型在训练数据上学到了数据的噪声和细节,而不是真正的数据模式。 过拟合的主要原因包括: 模型复杂度过高: 如果模型过 阅读全文
posted @ 2023-11-16 09:16 王哲MGG_AI 阅读(204) 评论(0) 推荐(0)
摘要: OOB(Out-of-Bag)误差是一种评估随机森林模型性能的方法。随机森林采用自助采样(Bootstrap Sampling)的方式生成每个决策树的训练集,这意味着每个样本在某些树的训练中可能没有被采样到。OOB误差利用这种未被采样到的样本来评估模型的性能。 具体来说,对于每个样本,如果它在某个决 阅读全文
posted @ 2023-11-16 09:14 王哲MGG_AI 阅读(319) 评论(0) 推荐(0)
摘要: "扰动"指的是在集成学习过程中引入的随机性或不确定性。扰动的引入有助于增加模型的多样性,从而提高整体模型的泛化性能。在集成学习中,主要通过两种方式引入扰动:样本扰动和属性扰动。 样本扰动: 在Bagging(Bootstrap Aggregating)中,通过有放回地从原始训练集中随机抽样生成多个不 阅读全文
posted @ 2023-11-16 09:05 王哲MGG_AI 阅读(528) 评论(0) 推荐(0)
摘要: 随机森林(Random Forest)是一种强大的集成学习算法,通过构建多个决策树,并结合它们的预测结果来提高整体模型的性能和鲁棒性。以下是随机森林的详细解释: 随机森林的构建过程: Bootstrap抽样: 对于给定的包含N个样本的原始数据集,进行有放回的随机抽样,构造一个新的样本集,大小也为N。 阅读全文
posted @ 2023-11-15 17:21 王哲MGG_AI 阅读(310) 评论(0) 推荐(0)
摘要: 决策树是一种基于树结构的分类和回归模型,它通过对数据进行逐步的分解,从根节点开始,根据不同的特征进行分割,最终到达叶节点,叶节点对应一个预测结果。以下是决策树的基本概念和构建过程的详细解释: 决策树的基本概念: 节点(Node): 根节点(Root Node): 树的起始节点,包含整个数据集。 内部 阅读全文
posted @ 2023-11-15 17:12 王哲MGG_AI 阅读(226) 评论(0) 推荐(0)
摘要: Bagging(Bootstrap Aggregating)是一种集成学习方法,通过构建多个弱学习器,每个学习器使用不同的采样数据集,然后将它们的预测结果进行平均或投票来改善整体模型的泛化性能。这种方法的主要思想是通过对训练数据集的有放回随机采样来生成多个不同的训练子集,然后在每个子集上训练弱学习器 阅读全文
posted @ 2023-11-15 17:04 王哲MGG_AI 阅读(68) 评论(0) 推荐(0)
摘要: 集成学习是一种机器学习方法,通过结合多个模型的预测来提高整体性能和泛化能力。其基本思想是通过结合多个弱学习器(通常是相对简单的模型)来构建一个更强大、更稳健的模型。集成学习的目标是降低过拟合风险、提高模型的鲁棒性,并在多个学习器之间平衡偏差和方差。 以下是集成学习的一些关键概念和方法: 1. 弱学习 阅读全文
posted @ 2023-11-15 16:52 王哲MGG_AI 阅读(169) 评论(0) 推荐(0)
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 33 下一页