刷新
从零开始学机器学习——了解回归

博主头像 在本文中,我们探讨了回归分析在统计学和数据分析中的重要性和应用。线性回归和逻辑回归作为两种主要的回归分析方法,分别适用于不同类型的数据建模和预测需求。通过数学建模,它们能够揭示变量之间的关系,并且在实际应用中展现了强大的预测能力。 ...

MATLAB R2024a免费+破解版本(含密钥)

博主头像 强大功能 在使用2024a之前,我一直在使用2018b,最近数学建模+学年论文的摧残,让我看到了matlab新增的强大功能: Deep Learning Toolbox:新增支持 Transformer 等架构,允许导入 PyTorch 和 TensorFlow 模型并执行协同仿真。 Compute ...

极大似然估计的思想及计算[例题]

0 前言 本文主要介绍极大似然估计的意义,并举出例题帮助读者理解。 1 思想 极大似然估计(Maximum Likelihood Estimation, MLE)是一种在统计学中估计模型参数的方法。它的基本思想是:找到一组参数值,使得在这组参数下,观测到的数据出现的概率(即似然函数)最大。 假如有一 ...

第一个机器学习Git项目

博主头像 Fork项目 访问项目主页:Simple-CNN-CIFAR10 点击右上角的“Fork”按钮,将该项目复制到自己的GitHub账户中。 克隆项目到WSL2 创建项目文件夹,并且选择项目克隆,在WSL2终端输入 mkdir -p ~/projects cd ~/projects` `git clon ...

VsCode+WSL2+Python3+git机器学习环境安装

博主头像 安装VsCode,添加WSL扩展插件 用管理员权限打开PowerShell wsl --install此命令将启用运行 WSL 并安装 Linux 的 Ubuntu 发行版所需的功能 wsl --set-version <distro name> 2命令将 替换为要更新的 Linux 发行版的名称, ...

基于基尼指数构建分类决策树[算法+示例]

0 前言 本文主要讲述使用基尼指数构建二叉决策树的算法,并给出例题一步步解析,帮助读者理解。 本文所使用的数据集:贷款.CSV。 读者需要具备的知识:基尼指数计算。 1 基于基尼指数的分类树构建算法 选择最优特征进行分裂: 对于决策树的每个节点,遍历数据集中的所有特征。对于每个特征,考虑其所有可能的 ...

机器学习之——基尼指数的计算[例题]

0 前言 本文主要介绍基尼指数的计算公式及计算方法,并举出相关例题帮助理解。 读者需要提前了解:信息熵。 数据集:贷款.CSV。 1 基尼指数简述 基尼指数(Gini Index)是一个在多个领域都有应用的重要指标,但其主要应用之一是在决策树算法中,用于衡量数据集的不纯度或混乱程度。 基尼指数也被称 ...

决策树之——C4.5算法及示例

0 前言 本文主要讲述了决策树C4.5算法构建原理并举例说明。 读者需要具备的知识有:信息熵、条件熵、信息增益、信息增益比。 本文所使用的数据集为:西瓜数据集 1.2节。 1 C4.5算法流程 准备数据集: 输入数据集包含多个样本,每个样本具有多个特征(属性)和一个目标类别标签。 设置阈值: 初始化 ...

决策树之——ID3算法及示例

0 前言 本文主要介绍决策树ID3算法,并举出构建示例帮助理解。 读者需要具备的知识:信息熵、条件熵、信息增益。 本文使用数据集为:游玩数据集 1.1节、西瓜数据集 1.2节。 1 ID3算法简述 ID3(Iterative Dichotomiser 3)算法是一种经典的决策树学习算法,由Ross ...

Datawhale X 李宏毅苹果书 AI夏令营 Task3 批量归一化、卷积神经网络、自注意力机制原理 笔记

博主头像 神经网络训练不起来怎么办(5):批次标准化(Batch Normalization)简介_哔哩哔哩_bilibili Task3:《深度学习详解》- 3.7 批量归一化 - **产生不好训练的误差表面的原因**:输入特征不同维度的值范围差距大可能导致误差表面不好训练,如输入值小对损失影响小,输入值大 ...

机器学习之——决策树信息增益比计算[程序+例题]

0 前言 本文主要介绍决策树信息增益比的计算,并给出例子帮助读者理解。 读者需要具备:信息熵、条件熵、信息增益 相关知识。 本文使用数据集:游玩数据集 1.1节。 1 信息增益比计算公式 2 信息增益比计算 2.1 gR(play,outlook)的计算 根据信息增益(跳转)相关知识,得出: 特征o ...

机器学习之——决策树信息增益计算[程序+例题]

0 前言 本文主要介绍信息增益的计算公式并举出若干例子帮助理解。 读者需要具备的知识有:信息熵、条件熵。 本文所示用的数据集为:游玩数据集 1.1节 1 信息增益计算公式 g(D,A)表示在条件A下对于目标变量D的信息增益。 H(D)表示随机变量D的信息熵。 H(D|A)表示在随机变量A条件下对于目 ...

机器学习之——决策树条件熵计算[程序+例题]

0 前言 本文主要介绍决策树条件熵的计算并给出若干例子帮助理解。 读者需要具备信息熵计算知识,若不了解请看:信息熵 1 条件熵 2 数据集 游玩数据集,请看:数据集 1.1节 3 条件熵的计算 使用所给游玩数据集。计算H(play|outlook)的条件熵(在Y随机变量为outlook条件下,X随机 ...

Datawhale X 李宏毅苹果书 AI夏令营 Task2笔记

博主头像 Task2.1:《深度学习详解》- 3.3&4&5 自适应学习率的概念和方法,包括AdaGrad、RMSProp和Adam等优化器。 - **训练网络时的梯度和损失变化**:训练网络时损失可能不再下降,但梯度范数不一定小,梯度可能在山谷壁间“震荡”,多数训练未到临界点就停止。- **不同学习率的影响 ...

模拟退火模型 —— 入门案例

博主头像 简介 模拟退火算法(Simulated Annealing, SA) 是一种概率型全局优化算法,它受到物理退火过程的启发。在固体材料的退火过程中,材料被加热到一定温度后缓慢冷却,其内部结构逐渐趋于稳定,最终达到能量最低的平衡状态。模拟退火算法正是模仿这一过程,用于寻找数学问题中的全局最优解。 特点 ...

决策树熵计算程序[Python+CSV格式数据集]

0 前言 为了便于学习决策树信息熵相关知识,笔者编写了一个专门用于计算变量信息熵、条件熵、信息增益、信息增益比的程序,方便提升学习效率。 程序中包含了计算过程的数据和详细信息以及最终计算结果。 编程语言为Python,搭配CSV数据格式使用。 1 数据集 1.1 游玩数据集 根据天气状况判断是否出去 ...

<1···89