o1:后验分布、贝叶斯概率、条件概率与正则化:一脉相承的思维范式

引言:为什么我们需要贝叶斯视角?

在现代机器学习和统计推断中,面对不确定性和噪声是再正常不过的事情。对于一个观察到的数据集,我们常常想找一个模型或者参数,使其能很好地解释数据并具备泛化能力。这就牵扯到两个核心问题:

  1. 如何在已有观察数据下合理地更新对未知参数的认识
  2. 如何在“解释数据”与“模型复杂度”之间做平衡,避免过拟合?

这是贝叶斯统计和正则化要解决的核心。下文会先阐述一些基础概念:贝叶斯定理条件概率后验分布最大后验 (MAP) 推断,继而链接到正则化(Ridge/Lasso/Dropout 等)在本质上都可以视作对后验分布或似然做了某种先验假设,从而达到平衡泛化与拟合的效果。


第一章:回到贝叶斯基础与条件概率

1.1 条件概率与联合分布

让我们先明确最基本的东西:条件概率。对随机事件 \(A\)\(B\),如果 \(\Pr(B) > 0\),则

\[\Pr(A \mid B) \;=\; \frac{\Pr(A \cap B)}{\Pr(B)}. \]

这与联合分布的关系是:

\[\Pr(A \cap B) = \Pr(A \mid B)\,\Pr(B). \]

在统计建模中,若我们用\(X\)表示观测数据,$ \theta $ 表示参数(或模型),则可以写为

\[p(\theta \mid X) = \frac{p(X \mid \theta)\,p(\theta)}{p(X)}. \]

这个公式就是我们熟悉的贝叶斯定理在参数-数据条件下的特化形式。它把我们关心的量“后验分布” \(p(\theta \mid X)\)“先验分布” \(p(\theta)\)“似然函数” \(p(X \mid \theta)\) 联系起来。

1.2 贝叶斯定理:从先验到后验

在参数估计的场景中,往往有:

  • 先验分布 \(p(\theta)\):表示在没有观察数据或仅有极少数据之前,我们对参数\(\theta\)可能取值的主观“信念”。
  • 似然函数 \(p(X \mid \theta)\):给定参数\(\theta\),数据\(X\)出现的概率或概率密度。它代表了模型对数据的“解释”能力。
  • 后验分布 \(p(\theta \mid X)\):通过贝叶斯定理把先验和似然进行“调和”,得到在已经观测到\(X\)的前提下,最合理的参数\(\theta\)分布形式。

综合起来,贝叶斯定理可以写成:

\[p(\theta \mid X) \;=\; \frac{p(X \mid \theta)\,p(\theta)}{p(X)}. \]

其中 \(p(X)\)(边际似然)是归一化常数,满足

\[p(X) = \int p(X\mid\theta)\,p(\theta)\,d\theta. \]

在实践中,这个积分经常难以解析地计算,于是会引出一系列数值方法如Markov Chain Monte Carlo (MCMC)、变分推断 (VI) 等进行近似。


第二章:后验分布与最大后验 (MAP) 估计

2.1 后验分布:我们的终极目标

完整的贝叶斯视角来看参数估计,我们其实想要的并非单一值的\(\theta\),而是后验分布的一整个分布 \(p(\theta \mid X)\)。在许多情况下,我们如果能拿到或近似得到后验分布,就可以:

  • 进行参数区间估计(如置信区间或最高后验密度区间);
  • 进行预测时进行“不确定性量化”,给出在参数不确定性下的平均预测效果;
  • 对模型能力进行灵活的贝叶斯对比或模型平均。

然而,完全保留后验分布可能在计算或表达上非常昂贵。这时就出现了一个折中方法:最大后验估计 (MAP)。

2.2 从 Bayes 定理到 MAP

若我们仅想得到一个估计值 \(\hat{\theta}_{\mathrm{MAP}}\),可以从后验分布里取最“高峰”的那一点,即:

\[\hat{\theta}_{\mathrm{MAP}} = \arg\max_\theta \; p(\theta \mid X). \]

利用贝叶斯公式,

\[p(\theta \mid X) = \frac{p(X \mid \theta)\,p(\theta)}{p(X)}. \]

由于 \(p(X)\) 不依赖 \(\theta\),最大化 \(p(\theta \mid X)\) 等价于最大化

\[p(X \mid \theta)\,p(\theta). \]

为了简化计算,通常取对数

\[\hat{\theta}_{\mathrm{MAP}} = \arg\max_\theta \;\log p(X \mid \theta) \;+\;\log p(\theta). \]

在机器学习里,我们会对\(\log p(X \mid \theta)\)称为对数似然 (log-likelihood)\(\log p(\theta)\) 称为对数先验 (log-prior)。这直接把先验融入了损失函数当中,这种形式对理解正则化非常关键。


第三章:正则化与先验的等价视角

3.1 从最大似然到最大后验:为什么需要先验?

假如我们最朴素地做最大似然估计 (MLE)

\[\hat{\theta}_{\mathrm{MLE}} = \arg\max_\theta \;p(X \mid \theta) = \arg\max_\theta \;\log p(X \mid \theta). \]

当数据维度或模型复杂度较大时,纯粹的最大似然估计往往容易过拟合:它会追求让训练数据的似然最大化,忽略模型复杂度控制或对\(\theta\)本身的约束。

最大后验 (MAP) 则通过在目标函数里多了一项 \(\log p(\theta)\) 来对\(\theta\)施加一定“约束”(先验)。从形式来看,这就像在传统优化中加了一项正则项,用来避免\(\theta\)过于任性地自适应数据噪声。

3.2 L2 正则化与高斯先验的关系

以经典的线性回归为例,我们的似然函数通常假设高斯噪声

\[p(X \mid \theta) = \prod_{i=1}^N \mathcal{N}\bigl(y_i \mid \mathbf{w}^T \mathbf{x}_i,\, \sigma^2\bigr). \]

若将先验 \(p(\theta) = p(\mathbf{w})\) 假设为一个零均值的高斯 \(\mathcal{N}(\mathbf{w}\mid \mathbf{0},\, \tau^2 \mathbf{I})\),则对数先验为

\[\log p(\mathbf{w}) = - \frac{1}{2\tau^2}\,\|\mathbf{w}\|^2 + \text{常数}. \]

我们把 \(\log p(X\mid\mathbf{w})\)(对数似然)与 \(\log p(\mathbf{w})\) 相加并取负号,就可以得到

\[-\log p(X \mid \mathbf{w}) \;-\; \log p(\mathbf{w}) \;\;=\;\; \underbrace{-\log p(X \mid \mathbf{w})}_{\text{拟合项 (Square Error)}} \;+\; \underbrace{\frac{1}{2\tau^2}\,\|\mathbf{w}\|^2}_{\text{L2 正则项}} \;+\;\text{常数}. \]

这样就清晰地看出:给参数添加高斯先验 \(\iff\) 在优化损失上添加一个\(L_2\)正则化项。由此我们得到 Ridge 回归(也叫 L2 正则回归)的典型公式。

3.3 L1 正则化与拉普拉斯先验的关系

同理,如果我们给\(\mathbf{w}\) 假设的是拉普拉斯 (Laplace) 分布先验

\[p(\mathbf{w}) = \prod_j \frac{1}{2b}\,\exp\Bigl(-\frac{|w_j|}{b}\Bigr), \]

\(\log p(\mathbf{w})\) 会变成与 \(\|\mathbf{w}\|_1\) 成正比的负号:

\[\log p(\mathbf{w}) = -\frac{1}{b}\,\|\mathbf{w}\|_1 + \text{常数}. \]

对应地,在目标函数里就出现 \(\|\mathbf{w}\|_1\) 的正则项,这就是L1 向稀疏性倾向的本质。它也解释了为什么Lasso可产生稀疏解:拉普拉斯先验在原点更尖峰,鼓励大部分参数贴近 0。

3.4 Dropout 等其他正则化的贝叶斯解释

更复杂的正则化杀器,如Dropout,也能在一定程度上被解读为对网络权重或网络结构施加某种随机先验(相当于对连接进行随机“掩蔽”所带来的先验假设)。
虽然这种映射并不是直接等价于简单的高斯或拉普拉斯先验,但它依旧可以通过一些变分推断思想或“贝叶斯神经网络”解释成:网络训练过程中在对权重空间做随机采样,从而避免局部极端过拟合。


第四章:条件概率、MAP与正则化手段的统一视角

4.1 统一到一个公式:对数似然 + 对数先验

综上,可以看到最大似然各种正则化都能被看作是在后验分布(或目标函数)里添加或不添加先验的一种“显式或隐式”实现。统一的目标函数可以写作:

\[\mathcal{L}(\theta) = -\log p(X \mid \theta) \;-\; \log p(\theta) = -\log p(\theta \mid X) + \log p(X). \]

因为 \(\log p(X)\) 不依赖 \(\theta\),故在优化上可以省略。于是就有

\[\hat{\theta}_{\mathrm{MAP}} = \arg\min_\theta\;\Bigl( -\log p(X \mid \theta) \;-\; \log p(\theta) \Bigr). \]

不同正则化形式对应了不同先验假设,如前文的高斯 (L2), 拉普拉斯 (L1) 等等。

4.2 为什么它们有“共通点”?

  1. 都是对“过度自由”做某种惩罚:在条件概率的语言下,这种“惩罚”就是坚持“若要获得更多的可能性,你需要先验上容忍度大或分散度高”。
  2. 都可以被看作“贝叶斯 + 优化”的折中:你可以只做纯粹最大似然,但那往往易过拟合;你也可选择带强先验(如非常紧的高斯),可能泛化好但欠拟合。所以需要在“拟合程度”与“先验强度”之间找到折中。
  3. 在数值优化时,都是在损失函数中增加一项或多项正则因子来控制模型的复杂度。

4.3 与可解释性:参数、先验和约束

在一些可解释性较强的领域(例如线性模型),我们实际上可以直接用“先验 = 约束”来理解,例如:

  • L2 先验(高斯) \(\leftrightarrow\) 希望参数在均值 0 附近波动但不至于太大;
  • L1 先验(拉普拉斯) \(\leftrightarrow\) 希望大部分参数贴近 0(稀疏);
  • 更复杂先验可以对应更复杂的先验知识,比如分层先验、结构先验等。

在深度学习中,虽然一层层网络和随机正则看起来难以直观等价为简单先验,但核心仍是“一边在解释数据,一边不希望参数过度发散”,与贝叶斯思想是同源的。


第五章:进一步思考与应用

5.1 贝叶斯模型平均 (Bayesian Model Averaging)

当我们不止有一个模型,而是多个可能的模型时,贝叶斯框架可以通过模型后验分布 \(p(\mathcal{M}\mid X)\) 对不同模型进行加权,得到更稳健的最终预测。类似地,在深度学习领域也出现了集成学习深度集合(Deep Ensembles)的思想,这在一定程度上与模型平均存在相似逻辑:用多模型表达更多不确定性,从而得到更好泛化或更稳定的预测。

5.2 与MCMC、变分推断的衔接

若我们不满足于点估计 (MAP),而是想得到完整的后验分布,就需要像上篇蒙特卡洛一文里介绍的MCMC那样,或用变分推断 (Variational Inference) 的方法,去近似采样或逼近整条分布。 这时,正则化的观念仍旧体现在先验里,只是我们不再只关心后验峰值,而是想了解后验的形状、宽度等更多细节。

5.3 实际问题:先验的选择

在最终落地时,先验的选择往往带有主观性工程性

  • 高斯先验(L2正则)在高维空间较平滑,有时被视为“不偏好特殊稀疏结构”,而只惩罚过度大型参数;
  • 拉普拉斯先验(L1正则)在稀疏应用中更合适;
  • 如果我们有领域知识告诉我们参数更可能集中在某一范围或具有离群点分布,就可以考虑其他先验形式 (如离散先验、群先验、分层先验等)。

第六章:总结与回顾

  1. 贝叶斯与条件概率:贝叶斯定理是从条件概率扩展到对参数\(\theta\)和数据\(X\)关系的一个自然表达,其核心是通过先验—似然—后验的闭环来更新对\(\theta\)的信念。
  2. 后验分布 & MAP:后验分布是贝叶斯分析的终极目标,但在计算上可能昂贵;MAP 估计用一个简单的“峰值”来近似。
  3. 正则化 = 先验:加正则项 (如 L2、L1、甚至 Dropout) 与在后验分布中引入相应的先验是等价或极其相似的思路——都是在似然之外给\(\theta\)施加约束。
  4. 共通点:它们都在追求“在不损失太多对数据的解释度前提下,限制参数过度自由”,也就是在“拟合”与“复杂度”之间做权衡,正是统计与机器学习的核心思维。

附录:关键公式与更深入推导

A.1 贝叶斯定理在参数估计中的形式

\[p(\theta \mid X) = \frac{p(X \mid \theta)\,p(\theta)}{p(X)}, \]

其中 \(p(X) = \int p(X\mid\theta)\,p(\theta)\,d\theta\)。若我们只关心\(\theta\)的分布形状,往往写作

\[p(\theta \mid X) \propto p(X \mid \theta)\,p(\theta). \]

A.2 MAP 估计推导

\[\hat{\theta}_{\mathrm{MAP}} = \arg\max_\theta \,p(\theta \mid X) = \arg\max_\theta \,\underbrace{p(X \mid \theta)}_{\text{似然}}\;\;\underbrace{p(\theta)}_{\text{先验}} = \arg\max_\theta \,\bigl[\log p(X \mid \theta) + \log p(\theta)\bigr]. \]

A.3 L2/L1 先验与正则化的等价

  • L2 (Ridge 回归) 对应高斯先验:

    \[p(\mathbf{w}) = \prod_j \frac{1}{\sqrt{2\pi \tau^2}} \exp\Bigl(-\frac{w_j^2}{2\tau^2}\Bigr) \quad\Rightarrow\quad \log p(\mathbf{w}) = -\frac{1}{2\tau^2}\|\mathbf{w}\|^2 + \text{常数}. \]

  • L1 (Lasso) 对应拉普拉斯先验:

    \[p(\mathbf{w}) = \prod_j \frac{1}{2b}\,\exp\bigl(-|w_j|/b\bigr) \quad\Rightarrow\quad \log p(\mathbf{w}) = -\frac{1}{b}\|\mathbf{w}\|_1 + \text{常数}. \]

A.4 从完整后验到正则化的普适图景

若我们定义损失函数 \(\mathcal{L}(\theta) = -\log p(\theta\mid X)\),则

\[\mathcal{L}(\theta) = - \log p(X\mid\theta) \;-\; \log p(\theta) + \text{常数} \;\;\leftrightarrow\;\; \text{(数据拟合项)} \;+\; \text{(正则项)}. \]

由此可以理解各种先验/正则都可在贝叶斯—频率学派的方法中找到等价描述。


后记:从贝叶斯到现实应用

贝叶斯思想正则化处理可以说贯穿了统计学与机器学习的多个核心领域。它们在原理层面形成了这样一种统一视角:“我们追求在见到数据之后对模型参数的合理分布做出最优(或近似最优)的描述,同时不要在高维空间里被噪音带偏,还要留足够空间表达不确定性。”
如果我们继续深挖,就会遇到数值算法 (如 MCMC, HMC, 变分推断) 在大型数据和复杂模型下如何逼近后验分布的问题,这一点与之前我们谈到的光线追踪中的蒙特卡洛也异曲同工——都是为了在高维空间做出尽可能有效的采样或者优化。

希望这篇博客能让你在今后看待“为什么要加正则?”、“为什么说正则项是先验的体现?”时,会有更明晰的全局观。如果实践中还要考虑模型部署、计算硬件效率等,更需要在先验强度、模型复杂度与数据拟合三者之间取得平衡。欢迎在评论区或进一步学习中探讨更多细节问题。

祝学习愉快!

posted @ 2025-04-10 14:07  Lemon-GPU  阅读(96)  评论(0)    收藏  举报