摘要: 首先,我非常感谢cnblogs这么好的一个平台给我们这些计算机方面的人提供这么一个共享的平台! 其次,我希望大家共享知识,共同交流进步! 然后,如果在转载中侵犯了您的权益,请及时联系我。 音频视频: ebaina live555 阅读全文
posted @ 2015-10-30 21:04 PKICA 阅读(252) 评论(0) 推荐(0)
摘要: 1. 数据集划分 在标准的机器学习流程中,数据集通常被划分为以下几个主要部分: 1). 训练集 (Training Set) 作用:用于训练模型,即通过学习数据中的特征和模式来优化模型的内部参数。 用途:模型接触的绝大部分数据都在这里,是模型“学习”的基础。 2). 验证集 (Validation 阅读全文
posted @ 2025-11-17 10:27 PKICA 阅读(3) 评论(0) 推荐(0)
摘要: Softplus函数是一种在数学和机器学习中常用的激活函数,它被视为ReLU(线性整流单元)函数的一个平滑近似。 1. Softplus函数定义与公式 Softplus函数的定义公式为自然对数与指数函数的组合: 𝑓(𝑥)=ln(1+𝑒𝑥) 其中,ln代表自然对数,𝑒是自然常数。该函数的输出 阅读全文
posted @ 2025-11-14 15:28 PKICA 阅读(7) 评论(0) 推荐(0)
摘要: 参数调优(Hyperparameter Tuning 或 Hyperparameter Optimization, HPO)是机器学习和深度学习模型开发过程中至关重要的一步。它指的是选择一组最优的超参数(Hyperparameters),以使得模型在特定任务上的表现(通常由验证集上的性能指标如准确率 阅读全文
posted @ 2025-11-14 11:07 PKICA 阅读(8) 评论(0) 推荐(0)
摘要: 混淆矩阵(Confusion Matrix),也称为误差矩阵,是评估分类模型性能的一种重要工具。它以表格形式直观展示了模型在预测时,对不同类别样本正确分类和错误分类的情况。 理解混淆矩阵是分析模型在样本不平衡、误报率、漏报率等问题上表现的基础。 混淆矩阵的结构 对于一个二分类问题(例如:检测疾病、判 阅读全文
posted @ 2025-11-14 10:50 PKICA 阅读(5) 评论(0) 推荐(0)
摘要: 异或门问题的难点在于其非线性可分性。 1. 为什么单层感知机无法处理 XOR? 如果我们尝试用一个只有输入层和输出层的单层感知机来解决 XOR 问题,会遇到困难。 单层感知机只能学习线性可分的决策边界。这意味着它只能用一条直线(或超平面)将不同类别的样本分开。 将 XOR 的数据点画在坐标系上:(0 阅读全文
posted @ 2025-11-14 09:54 PKICA 阅读(8) 评论(0) 推荐(0)
摘要: 矩估计(Method of Moments, MoM)是统计学中一种用于估计概率分布参数的经典方法。它是一种直观且相对简单的参数估计方法,由英国统计学家卡尔·皮尔逊(Karl Pearson)在 1894 年提出。 1. 矩估计核心思想 矩估计的核心思想是将样本的统计特征(样本矩)与总体的理论特征( 阅读全文
posted @ 2025-11-13 15:13 PKICA 阅读(8) 评论(0) 推荐(0)
摘要: 分类样本不平衡问题(Class Imbalance Problem)是机器学习中一个非常普遍且重要的问题。它指的是在分类数据集中,不同类别的样本数量差异巨大,例如,在信用卡欺诈检测中,正常交易样本可能有 99.8%,而欺诈交易样本可能只有 0.2%。 在这种情况下,大多数标准机器学习算法倾向于偏向多 阅读全文
posted @ 2025-11-13 11:12 PKICA 阅读(12) 评论(0) 推荐(0)
摘要: 1. 学习率 梯度下降的学习率(Learning Rate)是深度学习中最核心、最关键的超参数之一。它决定了模型在每一次迭代中沿着损失函数负梯度方向前进的“步子”有多大。 学习率的目标是在收敛速度和训练稳定性之间找到一个平衡点。 收敛速度:学习率越大,参数更新越快,理论上模型收敛到最优解所需的时间越 阅读全文
posted @ 2025-11-13 10:44 PKICA 阅读(16) 评论(0) 推荐(0)
摘要: Drop-out 是一种专门针对神经网络设计的正则化技术,亦称随机失活,它是一种非常有效且广泛使用的防止过拟合的方法。它由 Geoffrey Hinton 及其团队在 2012 年提出。 1. 核心思想 Drop-out 的核心思想非常直观:在训练过程中,随机地“关闭”(失活)一部分神经元。 想象一 阅读全文
posted @ 2025-11-12 17:22 PKICA 阅读(4) 评论(0) 推荐(0)
摘要: 梯度检查(Gradient Checking)中使用的双边逼近(Two-sided Approximation)方法,也称为中心差分法(Central Difference Method)。 1. 梯度检查的目的 在深度学习中,我们使用反向传播算法(Backpropagation)来计算损失函数关于 阅读全文
posted @ 2025-11-12 15:17 PKICA 阅读(4) 评论(0) 推荐(0)