简谈误差与不确定度

晚自习闲着没事写的,内容比较 Trivial,大家图一乐就行。

我们主要谈论其中的一些数学直觉上的理解。

1. 随机误差统计规律

由统计规律可知,概率密度函数 \(f(\Delta x)\) 满足如下正态分布条件:

\[f(\Delta x) = \dfrac{1}{\sigma\sqrt{2\pi}}\mathrm{e}^{-(\Delta x)^2 / (2\sigma ^ 2)} \]

上式的特征量 \(\sigma\) 为单次测量的标准误差,满足:

\[\sigma = \lim_{n \rightarrow \infty} \sqrt{\dfrac{\sum _ {1} ^ {n} (x _ i-x_0)^2}{n}} = \sqrt{\int _ {-\infty} ^ {+\infty}f(\Delta x)(\Delta x)^2\mathrm{d}{(\Delta x)}} \]

(写法可能不是很好看,能明白意思就行。)

由正态分布的对称性质,我们可以知道测量的算数平均值将成为真值的最佳估计值。

容易直观地理解,\(\sigma\) 可以有效地评定测量的质量。

由中学的结论容易知道:

\[P(3\sigma)=p(-3\sigma < \Delta x < 3\sigma) \approx 99.7 \% \]

从而可知误差几乎不可能超过 \(3\sigma\),有时亦称 \(3\sigma\) 为误差极限。


对于有限次测量的标准偏差 \(S_x\),我们使用贝塞尔公式进行计算:

\[S_x = \sqrt{\dfrac{\sum _ {1} ^{n} (x_i-\overline{x})^2}{n-1}} = \sqrt{\dfrac{\sum _ {1} ^{n} \nu _ i ^2}{n-1}} \]

显然当 \(n\to \infty\) 时,有 \(S _ x \to \sigma\),从而我们达成一个估计。

关于在贝塞尔公式中,我们对偏差平方和的均值的求取除以了 \(n-1\) 而非 \(n\),这实际是贝塞尔公式所包含的贝塞尔修正。

贝塞尔修正的原因简单来说是:真值与算数平均值本身存在差距,从而会使得样本方差低估标准差(这点由最小二乘的取极值条件可以轻松地得知)。从而将除数替换为 \(n-1\) 来弥补这一部分低估。

在后文我们将进一步解释这一点。

需要注意的是,\(S_{x}\) 并非我们最终的不确定度的估值的取值,因为我们并非取了“某次测量的值”作为真值的最佳估计值,而是取了“$n $ 次测量值的算术平均值”作为真值的最佳估计值。

那么理所当然的,我们的随机误差的不确定度,即不确定度的 A 类分量 \(\Delta _ {A}\),应当取“$n $ 次测量值的算术平均值”与真值的标准偏差的标准差 \(S _ {\overline{x}}\)

(这话说得确实比较绕。)

我们不妨将算数平均值视作一个将每次测量的数据作为变量的函数 \(f\),则容易知道:

\[\overline{x} = f ( x _ 1, \cdots, x_n) = \dfrac{\sum _{1}^{n} x_i}{n} \]

那么用方和根算法对 \(S_{\overline{x}}\) 进行估算:

\[\begin{aligned} S _ {\overline{x}} & = \sqrt{\sum _{i=1}^{n}\left(\dfrac{\partial f}{\partial x _ i}\right)^{2} (S _{x_i})^2} \\ & = \sqrt{\sum _{i=1}^{n}\left(\dfrac{\partial f}{\partial x _ i}\right)^{2} (S _{x})^2} \\ & = \sqrt{\dfrac{(S_x) ^ 2}{ n }} \\ & = \sqrt{\dfrac{\sum _{1}^{n}(x_i-\overline{x})^2}{n(n-1)}} \end{aligned} \]

容易知道数量关系:\(S_{\overline{x}}=S_x / \sqrt{n}\)


接下来我们可以开始解释贝塞尔修正的正确性了。

首先我们知道:

\[E\left(\dfrac{1}{n}\sum _ {i=1} ^ {n} (x _ i - \mu ) ^ 2\right) = \sigma ^ 2 \]

\[\begin{aligned} E\left(\dfrac{1}{n}\sum _ {i=1} ^ {n} (x _ i - \overline{x} ) ^ 2\right) & = E\left(\dfrac{1}{n}\sum _ {i=1} ^ {n} (x _ i - \mu ) ^ 2\right) + E\left(\dfrac{1}{n}\sum _ {i=1} ^ {n} (\overline{x} - \mu ) ^ 2\right) - 2 E\left(\dfrac{1}{n}\sum _ {i=1} ^ {n} (\overline{x} - \mu ) (x _ i - \mu) \right) \\ & = \sigma ^ 2 - (\overline{x} - \mu) ^ 2 \\ & = \sigma ^ 2 - S _ {\overline{x}} ^ 2 \\ & = \dfrac{n-1}{n} \sigma ^ 2 \end{aligned} \]

从而发现:

\[E\left(\dfrac{1}{n-1}\sum _ {i=1} ^ {n} (x _ i - \overline{x} ) ^ 2\right) = \sigma ^ 2 \]

于是贝塞尔修正的正确性得证。

2. 不确定度的评定

  • 不确定度 \(\Delta\) 的 A 类分量 \(\Delta _{A}\) 即随机误差的不确定度,取测量列算术平均值的标准偏差 \(S_{\overline{x}}\),亦即:

    \[\Delta_{A} = S_{\overline{x}} =\sqrt{\dfrac{\sum _{1}^{n}(x_i-\overline{x})^2}{n(n-1)}} \]

  • 还记得我们上文提到的误差极限 \(3\sigma\) 吗,有些时候我们的仪器将其测量的不确定度按照 \(3\sigma\) 计算并标注于仪器或校准证书上,实际上就是标注了置信因子 \(C=3\)。此时我们仪器的不确定度 \(\Delta _{仪} = 3\sigma\)

    而我们的不确定度 \(\Delta\) 的 B 类分量 \(\Delta _{B} : =\sigma\),从而有:

    \[\Delta _{B} = \Delta _{仪} / 3 \]

    然而这是根据标准正态分布做出的置信概率为 \(99.7\%\) 的置信因子。有些时候仪器的偏差分布是矩形分布,它将直接给出 \(100\%\) 置信概率的置信区间 \(\left[-\Delta_{仪},\Delta_{仪}\right]\),但此时我们的置信因子与正态分布就不同了,不妨先尝试求取一下该分布的标准差 \(\sigma\)

    \[\sigma = \sqrt{\int _{-\Delta_{仪}} ^ {\Delta _ {仪}} f(x) x ^ 2 \mathrm{d}x }= \dfrac{\Delta_{仪}}{\sqrt{3}} \]

    那么我们容易得知,此时的不确定度的 B 类分量 \(\Delta_{B}=\sigma = \Delta_{仪}/\sqrt{3}\),置信因子为 \(C=\sqrt{3}\)。这也是高教版《大学物理实验(第二版)》给出的一般推荐取值。

    对于三角分布,标准差的求取是类似的:

    \[\sigma = \sqrt{\int _{-\Delta_{仪}}^{\Delta_{仪}}f(x)x^2\mathrm{d}x}=\dfrac{\Delta_{仪}}{\sqrt{6}} \]

    其中:

    \[f(x) = \pm \dfrac{1}{\Delta_{仪}^2}x+ \dfrac{1}{\Delta_{仪}} \]

3. 不确定度的合成

  • 直接测量的不确定度合成:

    \[\Delta = \sqrt{\Delta_{A} ^ 2 + \Delta _ {B} ^ 2} \]

  • 间接测量的不确定度合成:

    不妨设间接测量量 \(N\) 满足与直接测量量的如下函数关系:

    \[N = f( x_1, x_2,\cdots, x_n) \]

    我们采用方和根的方法来估算:

    \[\Delta _ {N} = \sqrt{\sum _ {i=1} ^{n}\left(\dfrac{\partial f}{\partial x}\right) ^ 2(\Delta _ {x_i})^2} \]

    有时该式的获取是困难的,但是其相对不确定度 \(\Delta _{N} / \overline{N}\) 的求取是简单的,因为它的值正是将 \(f\) 取对数后再代入上式:

    \[\dfrac{\Delta _ {N}}{\overline{N}} = \sqrt{\sum _ { i = 1} ^ {n}\left(\dfrac{\partial \ln f}{\partial x_i}\right)^2 (\Delta _ {x_i})^2} \]

关于方和根算法的由来解释:

我们考虑理想的情况,两组数据的标准差都可以使用概率密度函数 \(f_{X}(x)\)\(f_{Y}(y)\) 来进行计算。

显然我们有:

\[\sigma _ {X} ^ 2 = \int _{-\infty} ^ {+\infty} f _ {X} (x) x ^ 2 \mathrm{d} x \]

\[\sigma _ {Y} ^ 2 = \int _{-\infty} ^ {+\infty} f _ {Y} (y) y ^ 2 \mathrm{d} y \]

我们对两组数据合成,根据数理统计的经典结论,合成数据的概率密度函数 \(f_{X+Y}(a)\) 应当为 \(f_{X}(x)\)\(f_{Y}(y)\) 的卷积:

\[f _ {X+Y} (a) = \int _ {-\infty} ^ {+\infty} f _ {X} ( a - y ) f _ {Y} (y) \mathrm{d} y \]

我们可以由此计算合成数据的标准差:

\[\sigma _ {X+Y} ^ 2 = \int _ {-\infty} ^ {+\infty} \left( \int _ {-\infty} ^ {+\infty} f _ {X} ( x - y ) f _ {Y} (y) \mathrm{d} y \right) x ^ 2 \mathrm{d} x \]

作换元 \(u=x-y\)\(v=y\),则有:

\[\begin{aligned} \sigma _ {X+Y} ^ 2 & = \int _ {-\infty} ^ {+\infty} \int _ {-\infty} ^ {+\infty} f _ {X} ( x - y ) f _ {Y} (y) x ^ 2 \mathrm{d} x \mathrm{d} y \\ & = \int _ {-\infty} ^ {+\infty} \int _ {-\infty} ^ {+\infty} f _ {X} ( u ) f _ {Y} (v) (u + v) ^ 2 \left| \dfrac{\partial ( x , y )}{ \partial (u , v )} \right| \mathrm{d} u \mathrm{d} v \\ & = \sigma _ {X} ^2 + \sigma _ {Y} ^ 2 + 2E(X)E(Y) \\ & = \sigma _ {X} ^2 + \sigma _ {Y} ^ 2 \end{aligned} \]

那么 \(n\) 组数据的合成将是同理的。

对于间接测量,我们的所有偏差 \(x\) 都将乘上 \(\partial f /\partial x\) 作用于 \(f\) 上,其对标准差的影响亦是线性的,由此看出方和根算法的正确性成立。

posted @ 2025-10-14 02:01  Aryper  阅读(13)  评论(0)    收藏  举报