上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 33 下一页
摘要: 1.初始化步骤 import numpy as np from utils.features import prepare_for_training class LinearRegression: def __init__(self, data, labels, polynomial_degree= 阅读全文
posted @ 2023-11-18 15:54 王哲MGG_AI 阅读(357) 评论(0) 推荐(1)
摘要: 线性回归中的梯度下降是一种优化算法,用于找到使线性回归模型拟合数据最好的参数值。下面是关于线性回归中梯度下降的详细解释: 1. 线性回归模型: 线性回归模型的基本形式是: 2. 梯度下降的目标: 梯度下降的目标是最小化损失函数,即观测值和模型预测值之间的差异。在线性回归中,通常采用均方误差(Mean 阅读全文
posted @ 2023-11-17 15:39 王哲MGG_AI 阅读(204) 评论(0) 推荐(1)
摘要: 似然函数是统计学和机器学习中一个关键的概念,它在参数估计和模型选择等方面发挥着重要作用。下面详细解释似然函数的定义和作用: 1. 定义: 似然函数通常用 L(θ∣X) 表示,其中 θ 是模型参数,X 是观测到的数据。似然函数描述了在给定一组参数 θ 的条件下,观测到数据 X 的概率。 2. 作用: 阅读全文
posted @ 2023-11-17 15:18 王哲MGG_AI 阅读(274) 评论(0) 推荐(0)
摘要: "独立同分布" 是统计学和机器学习中一个重要的概念。让我们更详细地探讨这个概念的含义: 独立性(Independence): 独立性的意义: 当我们说随机变量是独立的时,意味着一个随机变量的取值不会提供关于另一个随机变量取值的任何信息。换句话说,知道一个随机变量的取值并不会改变对另一个随机变量的预测 阅读全文
posted @ 2023-11-17 15:01 王哲MGG_AI 阅读(855) 评论(0) 推荐(0)
摘要: 误差项是在统计学和机器学习中经常用来描述模型预测与真实观测之间的差异的术语。在线性回归中,误差项通常用符号 ϵ(epsilon)表示。这个项表示了模型无法捕捉或解释的因素,也就是不能被自变量完全解释的变异性。 具体来说,线性回归模型的基本形式为: 关于误差项的一些关键点: 随机性: 误差项通常被假设 阅读全文
posted @ 2023-11-17 10:57 王哲MGG_AI 阅读(524) 评论(0) 推荐(0)
摘要: 线性回归是一种用于建模和分析两个变量之间关系的统计方法。在简单线性回归中,我们考虑一个自变量(输入特征)和一个因变量(输出目标)之间的线性关系。这个关系可以表示为一条直线,其方程可以用来预测因变量的值。 以下是线性回归的基本步骤和概念: 问题定义: 确定问题,并明确自变量和因变量。例如,我们想要预测 阅读全文
posted @ 2023-11-17 10:46 王哲MGG_AI 阅读(63) 评论(0) 推荐(0)
摘要: CART(Classification and Regression Trees)是一种常用的决策树算法,既可以用于分类问题,也可以用于回归问题。CART算法由Breiman等人于1984年提出,是一种基于递归二分划分的贪婪算法。以下是对CART算法的详细解释: 1. 决策树的构建过程: CART算 阅读全文
posted @ 2023-11-16 16:37 王哲MGG_AI 阅读(210) 评论(0) 推荐(0)
摘要: 信息增益(Information Gain)是在决策树构建过程中用于选择最佳分裂特征的一种度量。它用于衡量在某个特征条件下,将数据集分成不同类别所能带来的纯度提升。 信息熵的概念: 为了理解信息增益,首先要理解信息熵。信息熵是用于度量一个系统的不确定性或无序程度的概念。对于一个二分类问题,信息熵的计 阅读全文
posted @ 2023-11-16 16:32 王哲MGG_AI 阅读(494) 评论(0) 推荐(0)
摘要: 在随机森林中,熵是一种用于度量数据的纯度或无序程度的概念,特别是在决策树的构建过程中。熵越低,表示数据越有序,纯度越高。 信息熵的定义: 信息熵是由信息论引入的概念,用于度量一个系统的不确定性。在决策树中,熵通常用于衡量一个节点的纯度,即该节点包含的样本属于不同类别的程度。 对于一个二分类问题,假设 阅读全文
posted @ 2023-11-16 16:28 王哲MGG_AI 阅读(155) 评论(0) 推荐(0)
摘要: 随机森林(Random Forest)是一种强大的集成学习算法,通过构建多个决策树并综合它们的结果来提高整体模型的性能。以下是随机森林的优缺点: 优点: 高准确性: 随机森林通常能够提供较高的预测准确性,尤其在处理复杂数据和高维数据时表现出色。 鲁棒性: 由于随机森林平均了多个决策树的结果,因此对于 阅读全文
posted @ 2023-11-16 09:50 王哲MGG_AI 阅读(1898) 评论(0) 推荐(0)
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 33 下一页