博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2026年2月20日

摘要: 机器学习核心概念笔记:偏差、方差、噪声、置信度 在机器学习模型训练与评估中,偏差、方差、噪声、置信度是四个贯穿始终的核心概念——它们直接决定了模型的拟合效果、泛化能力和预测可靠性,也是排查模型问题(如欠拟合、过拟合)、解读预测结果的关键。本文将以“严谨定义+通俗类比+实际场景”的方式,逐一拆解这四个 阅读全文

posted @ 2026-02-20 20:56 steve.z 阅读(2) 评论(0) 推荐(0)

摘要: 深度学习中正则化与L2正则化详解 在深度学习模型训练过程中,我们常常会遇到"过拟合"问题——模型在训练数据上表现极佳,却在未见过的测试数据上效果糟糕,无法很好地泛化。而正则化,就是解决过拟合的核心技术之一,它通过对模型参数施加约束,降低模型复杂度,引导模型学习数据的本质规律而非噪声。本文将详细讲解正 阅读全文

posted @ 2026-02-20 16:49 steve.z 阅读(3) 评论(0) 推荐(0)

摘要: 什么是贝叶斯误差? 本文为机器学习核心概念笔记,清晰界定贝叶斯误差的定义、本质、与其他误差的边界,以及工程实践意义,适合作为技术博客存档与快速查阅。 一、核心定义 贝叶斯误差(Bayes Error,又称贝叶斯错误率),是监督学习任务中理论上可达到的最小不可约误差,是由数据本身的固有随机性(不可消除 阅读全文

posted @ 2026-02-20 12:08 steve.z 阅读(1) 评论(0) 推荐(0)

摘要: 模型参数与超参数的核心区别与详解 前言 参数与超参数是深度学习最基础也最核心的两个概念,很多入门学习者极易混淆二者的边界,而对它们的正确理解、合理使用,直接决定了模型训练的效果、结果可复现性与工程落地能力。本文将系统拆解二者的定义、核心特性、典型示例,以及工程实践中的关键要点,帮你彻底厘清这两个核心 阅读全文

posted @ 2026-02-20 09:59 steve.z 阅读(1) 评论(0) 推荐(0)

2026年2月18日

摘要: 深度学习基础:反向传播与梯度 本文整理了深度学习中两个核心概念——反向传播与梯度——的原理与直觉理解。 一、反向传播(Backpropagation) 是什么? 反向传播是训练神经网络的核心算法,用于计算损失函数对每个参数(权重)的梯度,从而指导参数更新。 为什么需要它? 神经网络的目标是找到一组参 阅读全文

posted @ 2026-02-18 11:58 steve.z 阅读(8) 评论(0) 推荐(0)

2026年2月17日

摘要: 深度学习中的激活函数:必要性、Sigmoid与Tanh对比及选择指南 在深度学习中,激活函数是神经网络的核心组件之一。它不仅决定了神经元的输出,更直接影响了网络的表达能力与训练效果。本文将从三个核心问题出发,全面解析激活函数的作用,并详细对比经典的 Sigmoid 和 Tanh 函数,帮助你在实际应 阅读全文

posted @ 2026-02-17 17:26 steve.z 阅读(9) 评论(0) 推荐(0)

2026年2月15日

摘要: 每篇文献写出四个东西 1、解决什么问题? 2、核心创新是什么? 3、为什么有效? 4、对我有什么可迁移价值? 阅读全文

posted @ 2026-02-15 21:10 steve.z 阅读(2) 评论(0) 推荐(0)

摘要: GoogLeNet (Inception) 论文解析与代码复现指南 一、核心思想 这篇论文提出了Inception架构(GoogLeNet),核心创新在于: 1. 设计动机 问题:简单增加网络深度和宽度会导致参数激增,容易过拟合且计算量大 解决方案:用稀疏连接的思想,但用密集计算组件来近似实现 2. 阅读全文

posted @ 2026-02-15 09:07 steve.z 阅读(4) 评论(0) 推荐(0)

2026年2月14日

摘要: 独立同分布(i.i.d.) 引言 独立同分布(Independent and Identically Distributed,简称i.i.d.)是概率论与数理统计体系中最基础、最核心的假设之一,也是机器学习、数据分析、信号处理等领域的底层逻辑基石。无论是经典的参数估计、假设检验,还是深度学习模型的泛 阅读全文

posted @ 2026-02-14 15:48 steve.z 阅读(4) 评论(0) 推荐(0)

摘要: 极大似然估计(MLE) 一、引言 在统计学、机器学习与数据建模领域,我们经常会遇到这样的核心问题:已经采集到一组样本数据,且已知数据服从某一类概率分布,但分布的关键参数未知,如何通过已有的样本,反推出最合理的参数值? 极大似然估计就是解决这类问题最经典、最常用的方法之一,它广泛应用于线性回归、逻辑回 阅读全文

posted @ 2026-02-14 15:39 steve.z 阅读(12) 评论(0) 推荐(0)