摘要: 设检验中的几个核心概念:否定域(拒绝域)、显著性水平 α、p 值(p-value)**。这些概念在统计推断中彼此紧密相关,理解它们能帮助你正确设计统计检验并解读检验结果。 📖 第一人称心路独白:关于 H₀、5%,以及那条我必须画出的界线 有时候,我觉得做假设检验就像是在和“未知”对话。 我面前摆着 阅读全文
posted @ 2026-01-17 19:48 wlu 阅读(11) 评论(0) 推荐(0)
摘要: 自由度:统计推断的核心桥梁 在数理统计中,自由度是连接样本与总体的关键概念,其核心价值在于让“用样本推断总体”从主观判断转化为可量化的科学分析。本文将遵循“为什么需要—本质是什么—实际怎么用”的逻辑,系统拆解这一核心概念。 高自由度背后的核心含义:有效信息更充分 “高自由度 ↔ 有效信息更充分 ↔ 阅读全文
posted @ 2026-01-16 23:48 wlu 阅读(11) 评论(0) 推荐(0)
摘要: 通过“标准正态变量 / 卡方变量自由度开方”的构造,完美解决了“总体方差未知”时的统计检验问题 🔍 什么是 t 分布? t分布(Student’s t-distribution)是统计学家 William Sealy Gosset 以“Student”为笔名提出的分布,专门解决总体方差未知、小样本 阅读全文
posted @ 2026-01-16 21:19 wlu 阅读(17) 评论(0) 推荐(0)
摘要: 📊 统计检验里的“变异比值”逻辑 简单来说,卡方分布告诉我们“变异有多大”,而F分布告诉我们“这个变异相对于另一个变异来说,是否大到显著”。 🔗 场景→平方和→卡方→F分布 关系链 ✨ 一、F分布核心知识点速览 F分布是两个独立卡方分布的“标准化比值”:若随机变量 \(X \sim \chi^2 阅读全文
posted @ 2026-01-16 20:44 wlu 阅读(6) 评论(0) 推荐(0)
摘要: 《回归分布》第二章 误差平方和是统计学、机器学习、工程优化等领域的 “底层工具”,它的有效性和普适性,源于几个核心优势 ——不抵消偏差、放大关键异常、数学性质优良。比如机器学习里的均方误差(MSE),本质就是 “平均化的误差平方和”,是最常用的回归任务损失函数之一 —— 它的优化目标,就是最小化预测 阅读全文
posted @ 2026-01-16 13:32 wlu 阅读(13) 评论(0) 推荐(0)
摘要: 统计推断是统计学的核心逻辑之一,其本质是**利用有限的样本数据,对未知的总体特征做出合理的估计和判断**,也是从“样本”到“总体”的关键桥梁。本文将系统梳理统计推断的核心基础概念:统计量与总体参数的定义及区别、统计推断的两大核心方法、总体/样本/抽样分布的界定,以及易混的标准差与标准误,帮大家建立统计推断的基础认知框架。 阅读全文
posted @ 2026-01-16 11:59 wlu 阅读(25) 评论(0) 推荐(0)
摘要: 如书中所说算法很快收敛,但是实验发现结果不稳定。有待进一步探究。 ε-贪婪蒙特卡洛控制:5×5 网格世界实战 场景设定与实验目标 环境:\(5\times 5\) 网格,左上角为 \((1,1)\)。 动作集合:上、下、左、右、不动,共 5 个确定性动作。 奖励: 出格:\(-1\) 禁区(橙色格子 阅读全文
posted @ 2026-01-02 08:39 wlu 阅读(10) 评论(0) 推荐(0)
摘要: 网格世界价值迭代(Value Iteration)完整示例 注: 本文参照 《强化学习中的数学原理》一书,4.1章节“价值优化”部分的,例子是4.2策略优化中的数据。 代码借助AI一步步写出 代码大循环(Bellman Optimalty Equation直接求解V,只需要一次迭代)迭代111次 对 阅读全文
posted @ 2026-01-01 14:39 wlu 阅读(7) 评论(0) 推荐(0)
摘要: 网格世界策略评估与策略改进(5 动作) 注: 本文参照 《强化学习中的数学原理》一书,4.2章节“策略优化”部分的。 代码借助AI一步步写出,在复现算法过程中,中间结果与书中不一样。 代码大循环迭代17次 https://github.com/MathFoundationRL/Book-Mathem 阅读全文
posted @ 2026-01-01 13:55 wlu 阅读(13) 评论(0) 推荐(0)
摘要: Here’s a clear summary of what you learned and the workflow for using GitHub Copilot and OpenSpec for Spec-Driven Development (SDD) initiation: ┌───── 阅读全文
posted @ 2025-12-17 18:03 wlu 阅读(84) 评论(0) 推荐(0)