摘要:
集成学习(Ensemble Learning)是一种通过结合多个模型的预测结果来提高整体性能的技术。 1. Bagging(Bootstrap Aggregating) Bagging 的目标是通过减少模型的方差来提高性能,适用于高方差、易过拟合的模型。它通过以下步骤实现: 数据集重采样:对训练数据 阅读全文
posted @ 2025-07-28 20:10
嘉禾世兴
阅读(34)
评论(0)
推荐(0)
摘要:
K 近邻算法(K-Nearest Neighbors,简称 KNN)是一种简单且常用的分类和回归算法。 K 近邻算法属于监督学习的一种,核心思想是通过计算待分类样本与训练集中各个样本的距离,找到距离最近的 K 个样本,然后根据这 K 个样本的类别或值来预测待分类样本的类别或值。 KNN 的基本原理 阅读全文
posted @ 2025-07-28 20:10
嘉禾世兴
阅读(22)
评论(0)
推荐(0)
摘要:
支持向量机(Support Vector Machine,简称 SVM)是一种监督学习算法,主要用于分类和回归问题。 SVM 的核心思想是找到一个最优的超平面,将不同类别的数据分开。这个超平面不仅要能够正确分类数据,还要使得两个类别之间的间隔(margin)最大化。 超平面: 在二维空间中,超平面是 阅读全文
posted @ 2025-07-28 20:10
嘉禾世兴
阅读(32)
评论(0)
推荐(0)
摘要:
决策树通过树状结构来表示决策过程,每个内部节点代表一个特征或属性的测试,每个分支代表测试的结果,每个叶节点代表一个类别或值。 决策树的基本概念 节点(Node):树中的每个点称为节点。根节点是树的起点,内部节点是决策点,叶节点是最终的决策结果。 分支(Branch):从一个节点到另一个节点的路径称为 阅读全文
posted @ 2025-07-28 20:10
嘉禾世兴
阅读(22)
评论(0)
推荐(0)
摘要:
逻辑回归(Logistic Regression)是一种广泛应用于分类问题的统计学习方法,尽管名字中带有"回归",但它实际上是一种用于二分类或多分类问题的算法。 逻辑回归通过使用逻辑函数(也称为 Sigmoid 函数)将线性回归的输出映射到 0 和 1 之间,从而预测某个事件发生的概率。 逻辑回归的 阅读全文
posted @ 2025-07-28 20:09
嘉禾世兴
阅读(7)
评论(0)
推荐(0)

浙公网安备 33010602011771号