昆仑山:眼中无形心中有穴之穴人合一

夫君子之行,静以修身,俭以养德;非澹泊无以明志,非宁静无以致远。夫学须静也,才须学也;非学无以广才,非志无以成学。怠慢则不能励精,险躁则不能冶性。年与时驰,意与岁去,遂成枯落,多不接世。悲守穷庐,将复何及!

 

2.1.1充分统计量定义

充分统计量知识点详解与推导证明

各位同学,今天我们来系统讲解数理统计中核心的基础概念——充分统计量。这个概念由Fisher在1922年提出,是整个参数统计推断的基石,它解决的核心问题是:我们拿到n维样本后,能不能在不丢失关于未知参数信息的前提下,把样本压缩成低维的统计量,让统计推断变得更简单。下面我们从背景、定义、数学推导到核心结论,一步步拆解。


一、背景引入:统计推断与统计量的本质

我们做统计推断,核心逻辑是:从样本出发,推断总体的未知性质
绝大多数情况下,总体的分布可以归结为参数模型,比如正态分布\(N(\mu,\sigma^2)\)、泊松分布\(P(\lambda)\),这些分布的形式已知,只有参数\(\theta\)(比如\(\mu,\sigma^2,\lambda\))是未知的,我们的目标就是通过样本推断\(\theta\)

我们拿到的样本\(X=(X_1,X_2,\dots,X_n)^T\),是n维的随机向量,样本容量n通常很大。如果直接用全样本做推断,维度太高、计算复杂,所以我们会对样本做“加工/压缩”,得到统计量\(T=T(X)=(T_1(X),T_2(X),\dots,T_k(X))^T\),其中\(k\leq n\)。最常见的例子就是样本均值\(\bar{X}=\frac{1}{n}\sum_{i=1}^n X_i\)、样本方差\(S^2=\frac{1}{n}\sum_{i=1}^n (X_i-\bar{X})^2\),原本n维的样本,被压缩成了2维的统计量\(T=(\bar{X},S^2)\)

这时候就有一个核心问题:压缩之后,我们会不会丢失关于未知参数\(\theta\)的信息?
如果压缩后的统计量\(T(X)\),包含了原样本\(X\)中所有关于\(\theta\)的信息,用\(T\)做推断和用全样本\(X\)做推断的效果完全一致,没有任何信息损失,那这个统计量就叫做充分统计量


二、预备知识:统计量的严格数学定义

要讲充分统计量,首先要明确“统计量”的严格定义,这是所有推导的测度论基础。

1. 样本的概率空间描述

给定样本\(X=(X_1,X_2,\dots,X_n)^T\),我们用概率空间严格描述它:

  • 样本空间\(\mathcal{X}\):样本\(X\)所有可能的取值构成的集合,通常是n维实数空间\(\mathbb{R}^n\)
  • 参数空间\(\Theta\):未知参数\(\theta\)所有可能的取值构成的集合;
  • 概率测度\(P_\theta^X\):定义在样本空间\(\mathcal{X}\)的Borel域\(\mathcal{B}_X\)上的概率测度,对任意可测集\(A\in\mathcal{B}_X\)\(P_\theta^X(A)\)表示“样本\(X\)落在集合\(A\)中”的概率,这个概率由参数\(\theta\)决定。

我们也可以用分布函数\(F(x,\theta)\)、概率密度函数\(f(x,\theta)\)来描述样本的分布,记为\(X\sim f(x,\theta),\theta\in\Theta\);如果把\(f(x,\theta)\)看作\(\theta\)的函数,它就是我们熟知的似然函数

2. 统计量的定义

定义2.1.1\(T=T(X)\)是样本\(X\)的函数,取值空间为\(\mathcal{T}\)(通常是k维实数空间\(\mathbb{R}^k,k\leq n\))。若\(t=T(x)\)\(\mathcal{X}\to\mathcal{T}\)上的可测函数,即:对\(\mathcal{T}\)上的任意Borel集\(B\in\mathcal{B}_T\),都有原像集\(T^{-1}(B)=\{x\in\mathcal{X}:T(x)\in B\}\in\mathcal{B}_X\),则称\(T=T(X)\)是样本\(X\)的一个统计量。

核心解读:

  1. 统计量的本质是样本的可测函数,“可测”这个条件,是为了保证\(T(X)\)本身是一个随机向量,我们可以合法地讨论它的概率分布,不会出现不可测的病态情况;
  2. 统计量有一个关键性质:它不能包含未知参数\(\theta\)。也就是说,只要我们拿到了样本的观测值\(x\),就能算出\(T(x)\)的具体数值,不需要知道\(\theta\),这是统计量和参数的核心区别。

3. 统计量的导出测度(诱导分布)

统计量\(T(X)\)作为随机向量,有自己的概率分布,我们称之为导出测度,定义为:

\[P_\theta^T(B) \triangleq P_\theta^X(T^{-1}(B)),\quad \forall B\in\mathcal{B}_T \]

这个式子的含义非常直观:“统计量\(T\)落在集合\(B\)中”的概率,完全等于“样本\(X\)落在\(T\)的原像集\(T^{-1}(B)\)中”的概率。

积分形式的等价表达

根据测度论的积分定义,导出测度可以等价表示为积分形式,这是后续证明的核心工具:

\[\int_B \mathrm{d}P_\theta^T(t) \triangleq \int_{T^{-1}(B)} \mathrm{d}P_\theta^X(x) \]

更一般地,对任意可测函数\(m(t)\),有:

\[\int_\mathcal{T} m(t)\mathrm{d}P_\theta^T(t) = \int_\mathcal{X} m(T(x))\mathrm{d}P_\theta^X(x) \]

这个等式的推导逻辑是:

  1. 先对示性函数\(I_B(t)\)成立(就是上面的定义式);
  2. 对示性函数的线性组合(简单函数),自然成立;
  3. 任意可测函数都可以表示为简单函数的极限,因此对一般可测函数也成立。

三、充分统计量的直观含义与严格定义

1. 充分统计量的直观核心

我们先从信息的角度,把充分统计量的本质讲透:
样本\(X\)中包含的关于未知参数\(\theta\)的全部信息,可以拆成两部分:

\[\text{样本}X\text{关于}\theta\text{的总信息} = \text{统计量}T(X)\text{关于}\theta\text{的信息} + \text{已知}T(X)=t\text{后,样本}X\text{剩余的信息} \]

如果\(T(X)\)是充分统计量,那么后面这一项必须为0。也就是说:当我们已知\(T(X)=t\)之后,样本\(X\)的剩余信息里,再也没有任何关于\(\theta\)的内容了。所有能用来推断\(\theta\)的信息,已经被\(T(X)\)完全捕捉了。

换个更直白的说法:如果\(T\)是充分统计量,那么只要我们知道了\(T\)的取值,就算把原始样本丢掉,也不会影响我们对\(\theta\)的推断效果。

2. 充分统计量的严格数学定义

定义2.1.2 给定样本\(X\sim(\mathcal{X},\mathcal{B}_X,P_\theta^X),\theta\in\Theta\),统计量\(T=T(X)\)称为充分统计量,若对任意的可测集\(A\in\mathcal{B}_X\),条件概率

\[P_\theta^X(A|T(X)=t) \triangleq P_\theta^X(A|t) \]

与未知参数\(\theta\)无关。等价地,样本\(X\)\(T=t\)下的条件分布\(F(x|t;\theta)\)、条件概率密度\(f(x|t;\theta)\),都与\(\theta\)无关。

关键解读:

  1. 这个定义完全对应了我们的直观含义:条件分布和\(\theta\)无关,意味着已知\(T=t\)之后,样本\(X\)的分布不再依赖\(\theta\),自然也就没有能推断\(\theta\)的信息了;
  2. 一个最平凡的例子:样本\(X\)本身一定是充分统计量。因为已知\(X=x\)时,\(X\)的条件分布是退化在\(x\)上的确定性分布,显然和\(\theta\)无关,这也说明充分统计量一定存在,我们后续要找的,是维度最低、压缩最彻底的“极小充分统计量”;
  3. 这个定义是“充分性”的本质定义,但直接用定义验证一个统计量是否充分,需要计算条件分布,通常非常麻烦,所以我们需要更简便的判别工具,也就是后续的因子分解定理,而下面的引理,就是因子分解定理的核心铺垫。

四、核心引理的详细证明

引理2.1.1 给定样本\(X\sim f(x,\theta)\)\(T=T(X)\)是统计量,则\(X\)\(T\)的联合分布、以及\(X|T\)的条件分布,可表示为:

  1. 联合密度:\(f(x_1,\dots,x_n,t_1,\dots,t_k;\theta) = f(x_1,\dots,x_n;\theta) \cdot I\{x:T(x)=t\} \tag{2.1.3}\)
  2. 条件密度:\(f(x_1,\dots,x_n|t;\theta) = \frac{f(x_1,\dots,x_n;\theta) \cdot I\{x:T(x)=t\}}{f(t_1,\dots,t_k;\theta)} \tag{2.1.4}\)

其中\(I\{\cdot\}\)是示性函数,满足\(I\{A\}=1\)当事件\(A\)发生,\(I\{A\}=0\)当事件\(A\)不发生。

证明过程(每一步都标注依据)

我们分两步证明,先证联合密度,再证条件密度。

第一步:证明联合密度公式(2.1.3)

根据概率论中联合密度的乘法公式,对任意两个随机向量\((X,T)\),联合密度一定可以分解为:

\[f(x,t;\theta) = f(x;\theta) \cdot f(t|x;\theta) \]

这个公式是概率论的基本结论,含义是:联合密度 = 样本\(X\)的边缘密度 × 已知\(X=x\)\(T\)的条件密度,对任意随机向量都成立,没有额外约束。

接下来分析\(f(t|x;\theta)\),也就是“已知样本\(X=x\)时,统计量\(T\)的条件密度”。
这里有一个关键事实:\(T\)\(X\)的函数,\(T=T(X)\)。也就是说,当样本的观测值\(x\)完全确定时,\(T\)的取值\(t=T(x)\)就被唯一确定了,不可能取其他值。因此,这个条件分布是退化分布(确定性分布),它的密度可以写为:

\[f(t|x;\theta) = \begin{cases} 1, & T(x)=t \\ 0, & T(x)\neq t \end{cases}\]

而这个分段函数,恰好可以用示性函数完美表示:

\[f(t|x;\theta) = I\{x:T(x)=t\} \]

把这个结果代入联合密度的乘法公式,就得到:

\[f(x,t;\theta) = f(x;\theta) \cdot I\{x:T(x)=t\} \]

公式(2.1.3)得证。

第二步:证明条件密度公式(2.1.4)

同样,根据概率论中条件密度的定义,已知\(T=t\)\(X\)的条件密度,等于联合密度除以\(T\)的边缘密度:

\[f(x|t;\theta) = \frac{f(x,t;\theta)}{f(t;\theta)} \]

这个公式是条件密度的核心定义,没有任何额外约束。

我们已经在第一步证明了\(f(x,t;\theta)\)的表达式,把它直接代入上式,就得到:

\[f(x|t;\theta) = \frac{f(x;\theta) \cdot I\{x:T(x)=t\}}{f(t;\theta)} \]

公式(2.1.4)得证。

引理的核心意义

这个引理把充分统计量的定义,和样本的似然函数直接关联起来了。
我们回顾充分统计量的定义:\(f(x|t;\theta)\)\(\theta\)无关。结合引理的结果,要让\(f(x|t;\theta)\)\(\theta\)无关,就意味着:

\[\frac{f(x;\theta) \cdot I\{x:T(x)=t\}}{f(t;\theta)} \]

这个式子中,所有和\(\theta\)有关的部分,都必须只和\(t=T(x)\)有关,不能单独和\(x\)有关。这就是后续因子分解定理的核心思想,也是这个引理最重要的作用。


五、核心知识点归纳总结

概念 严格定义 核心含义 数学表达 关键性质/说明
统计量 样本\(X\)的可测函数\(T=T(X)\),不包含未知参数\(\theta\) 对n维样本的压缩/加工,把高维样本转化为低维的、可计算的数值 \(T:\mathcal{X}\to\mathcal{T}\),对\(\forall B\in\mathcal{B}_T\)\(T^{-1}(B)\in\mathcal{B}_X\) 1. 不依赖未知参数;2. 是随机向量,有自身的概率分布;3. 维度\(k\leq n\)
导出测度 统计量\(T\)的概率测度,由样本的概率测度诱导得到 统计量\(T\)的概率分布,完全由样本分布和\(T\)的函数形式决定 \(P_\theta^T(B) = P_\theta^X(T^{-1}(B))\)\(\forall B\in\mathcal{B}_T\) 积分等价形式:\(\int_\mathcal{T} m(t)\mathrm{d}P_\theta^T(t) = \int_\mathcal{X} m(T(x))\mathrm{d}P_\theta^X(x)\)
充分统计量 统计量\(T=T(X)\),若已知\(T=t\)时,样本\(X\)的条件分布与未知参数\(\theta\)无关,则\(T\)为充分统计量 压缩后的统计量,完全捕捉了样本中所有关于\(\theta\)的信息,无信息损失;用\(T\)推断\(\theta\)和用全样本推断效果完全一致 1. 概率形式:$P_\theta^X(A t)\(与\)\theta\(无关,\)\forall A\in\mathcal{B}_X\(<br>2. 密度形式:\)f(x
条件分布引理 样本与统计量的联合密度、条件密度的表达式 搭建了样本密度、统计量密度、条件密度之间的桥梁,是因子分解定理的理论基础 1. 联合密度:\(f(x,t;\theta) = f(x;\theta) \cdot I\{x:T(x)=t\}\)
2. 条件密度:$f(x
t;\theta) = \frac{f(x;\theta) \cdot I{x:T(x)=t}}{f(t;\theta)}$

充分统计量经典例题详解与推导

我们通过两个经典例题,完整演示定义法验证充分统计量的全流程,拆解每一步的数学依据与逻辑,同时说明“非充分统计量”的证明思路。


一、验证充分性的通用方法与核心逻辑

1. 充分统计量的核心判定准则

根据上一节的定义与引理,验证统计量\(T=T(X)\)为充分统计量,核心是证明:
给定\(T=t\)时,样本\(X\)的条件密度/条件分布列\(f(x|t;\theta)\)与未知参数\(\theta\)无关

2. 定义法的标准步骤

  1. 写出独立同分布样本的联合密度/联合分布列\(f(x;\theta)\)
  2. 推导统计量\(T\)概率分布(密度/分布列)\(f(t;\theta)\)
  3. 代入条件密度公式(引理2.1.4):

    \[f(x|t;\theta) = \frac{f(x;\theta) \cdot I\{x:T(x)=t\}}{f(t;\theta)} \]

  4. 化简表达式,验证最终结果是否与未知参数\(\theta\)无关。

3. 非充分统计量的证明逻辑

充分统计量的定义是对所有可测集,条件概率都与\(\theta\)无关(全称命题),因此要证明一个统计量不是充分统计量,只需找到一个反例:存在某个条件概率/条件密度与\(\theta\)有关,即可完成证明。


二、例2.1.1 泊松分布的充分统计量验证

题目背景

\(X_1,\dots,X_n\)为独立同分布(i.i.d.)样本,总体\(X_1 \sim\)泊松分布\(P(\lambda)\),其中\(\lambda>0\)为未知参数。

  • (1) 证明\(T=\sum_{i=1}^n X_i\)为充分统计量;
  • (2) 若\(n=2\),证明\(X_1+2X_2\)不是充分统计量。

(1) 证明\(T=\sum_{i=1}^n X_i\)为充分统计量

前置知识补充

  1. 泊松分布的分布列:若\(X\sim P(\lambda)\),则\(P(X=x)=\frac{\lambda^x e^{-\lambda}}{x!}, x=0,1,2,\dots\)
  2. 独立样本的联合分布列:独立随机变量的联合分布为各变量分布的乘积;
  3. 泊松分布的可加性:若\(X_1,\dots,X_n\) i.i.d. \(\sim P(\lambda)\),则\(\sum_{i=1}^n X_i \sim P(n\lambda)\)

分步推导

步骤1:写出样本的联合分布列

因为\(X_1,\dots,X_n\)独立同分布,所以联合分布列为每个样本分布列的乘积:

\[f(x;\lambda) = \prod_{i=1}^n P(X_i=x_i) = \prod_{i=1}^n \frac{\lambda^{x_i} e^{-\lambda}}{x_i!} \]

对乘积项化简:

  • 指数项:\(\prod_{i=1}^n \lambda^{x_i} = \lambda^{\sum_{i=1}^n x_i}\)\(\prod_{i=1}^n e^{-\lambda} = e^{-n\lambda}\)
  • 阶乘项:\(\prod_{i=1}^n \frac{1}{x_i!} = \frac{1}{\prod_{i=1}^n x_i!}\)

因此联合分布列可写为:

\[f(x;\lambda) = \frac{\lambda^{\sum_{i=1}^n x_i} e^{-n\lambda}}{\prod_{i=1}^n x_i!} \]

步骤2:写出统计量\(T\)的分布列

根据泊松分布的可加性,\(T=\sum_{i=1}^n X_i \sim P(n\lambda)\),因此\(T\)的分布列为:

\[f(t;\lambda) = P(T=t) = \frac{(n\lambda)^t e^{-n\lambda}}{t!}, \quad t=0,1,2,\dots \]

步骤3:代入条件密度公式并化简

根据引理2.1.4,条件分布列为:

\[f(x|t;\lambda) = \frac{f(x;\lambda) \cdot I\left\{x:\sum_{i=1}^n x_i = t\right\}}{f(t;\lambda)} \]

其中示性函数\(I\left\{\sum_{i=1}^n x_i = t\right\}\)的含义是:只有当样本观测值的和等于\(t\)时,\(T(x)=t\)成立,条件分布才有意义,否则为0。

在示性函数成立的前提下,\(\sum_{i=1}^n x_i = t\),因此可将分子中的\(\lambda^{\sum_{i=1}^n x_i}\)替换为\(\lambda^t\),代入后得到:

\[f(x|t;\lambda) = \frac{\frac{\lambda^t e^{-n\lambda}}{\prod_{i=1}^n x_i!} \cdot I\left\{\sum_{i=1}^n x_i = t\right\}}{\frac{(n\lambda)^t e^{-n\lambda}}{t!}} \]

对分子分母进行约分消元:

  • 分子分母的\(e^{-n\lambda}\)完全抵消;
  • 分子的\(\lambda^t\)与分母的\((n\lambda)^t = n^t \lambda^t\)中的\(\lambda^t\)完全抵消。

最终化简结果为:

\[f(x|t;\lambda) = \frac{t! \cdot I\left\{\sum_{i=1}^n x_i = t\right\}}{n^t \cdot \prod_{i=1}^n x_i!} \]

结论

化简后的条件分布列中,完全不包含未知参数\(\lambda\),仅与样本观测值、\(t\)\(n\)有关,因此根据充分统计量的定义,\(T=\sum_{i=1}^n X_i\)\(\lambda\)的充分统计量。


(2) 证明\(n=2\)时,\(T'=X_1+2X_2\)不是充分统计量

核心思路

找到一个反例,证明存在某个条件概率与\(\lambda\)有关,即可证明\(T'\)不是充分统计量。


分步推导

步骤1:确定事件\(T'=2\)的所有可能取值

泊松分布的取值为非负整数,因此\(X_1+2X_2=2\)的非负整数解只有两组:

  • 解1:\(X_2=1\)\(X_1=2-2\times1=0\),即\((X_1=0,X_2=1)\)
  • 解2:\(X_2=0\)\(X_1=2-0=2\),即\((X_1=2,X_2=0)\)

因此事件\(\{T'=2\}\)等价于两个互斥事件的并:

\[\{T'=2\} = \{X_1=0,X_2=1\} \cup \{X_1=2,X_2=0\} \]

步骤2:计算条件概率\(P(X_1=0,X_2=1 | T'=2)\)

根据条件概率的定义\(P(A|B)=\frac{P(AB)}{P(B)}\),此处\(A=\{X_1=0,X_2=1\}\)\(B=\{T'=2\}\)的子集,因此\(AB=A\),代入得:

\[P(X_1=0,X_2=1 | T'=2) = \frac{P(X_1=0,X_2=1)}{P(X_1=0,X_2=1) + P(X_1=2,X_2=0)} \]

步骤3:计算两个概率项

因为\(X_1,X_2\)独立同分布\(\sim P(\lambda)\),因此:

\[P(X_1=0,X_2=1) = P(X_1=0)P(X_2=1) = \frac{\lambda^0 e^{-\lambda}}{0!} \cdot \frac{\lambda^1 e^{-\lambda}}{1!} = \lambda e^{-2\lambda} \]

\[P(X_1=2,X_2=0) = P(X_1=2)P(X_2=0) = \frac{\lambda^2 e^{-\lambda}}{2!} \cdot \frac{\lambda^0 e^{-\lambda}}{0!} = \frac{\lambda^2}{2} e^{-2\lambda} \]

步骤4:代入化简

将两个概率项代入条件概率公式,分子分母的\(e^{-2\lambda}\)可完全抵消:

\[P(X_1=0,X_2=1 | T'=2) = \frac{\lambda e^{-2\lambda}}{\lambda e^{-2\lambda} + \frac{\lambda^2}{2} e^{-2\lambda}} = \frac{\lambda}{\lambda + \frac{\lambda^2}{2}} = \frac{1}{1+\frac{\lambda}{2}} = \left(1+\frac{\lambda}{2}\right)^{-1} \]

结论

该条件概率的结果中包含未知参数\(\lambda\),说明给定\(T'=2\)时,样本的条件分布与\(\lambda\)有关,不满足充分统计量的定义,因此\(X_1+2X_2\)不是充分统计量。


三、例2.1.2 均匀分布的充分统计量验证

题目背景

\(X_1,\dots,X_n\)为i.i.d.样本,总体\(X_1 \sim\)均匀分布\(R(0,\theta)\),其中\(\theta>0\)为未知参数,证明\(T=X_{(n)}=\max\{X_1,\dots,X_n\}\)(样本最大次序统计量)为充分统计量。


前置知识补充

  1. 均匀分布的密度函数:若\(X\sim R(0,\theta)\),则概率密度为

    \[f(x;\theta) = \frac{1}{\theta} I\{0\leq x\leq \theta\} \]

    其中示性函数\(I\{0\leq x\leq \theta\}\)表示:仅当\(x\in[0,\theta]\)时密度非零,该分布的支撑集与未知参数\(\theta\)有关,是本例的核心特点。
  2. 最大次序统计量的分布:若\(X_1,\dots,X_n\) i.i.d.,总体分布函数为\(F_X(x)\),则最大次序统计量\(X_{(n)}\)的分布函数为\(F_{X_{(n)}}(t) = [F_X(t)]^n\)

分步推导

步骤1:写出样本的联合密度函数

因为\(X_1,\dots,X_n\)独立同分布,联合密度为每个样本密度的乘积:

\[f(x;\theta) = \prod_{i=1}^n \left[ \frac{1}{\theta} I\{0\leq x_i\leq \theta\} \right] = \frac{1}{\theta^n} \prod_{i=1}^n I\{0\leq x_i\leq \theta\} \]

对示性函数进行关键化简:
\(\prod_{i=1}^n I\{0\leq x_i\leq \theta\}\)表示所有样本观测值都落在\([0,\theta]\),等价于:

  • 样本最小值\(\geq0\)\(x_{(1)}=\min\{x_1,\dots,x_n\} \geq 0\)
  • 样本最大值\(\leq\theta\)\(x_{(n)}=\max\{x_1,\dots,x_n\} \leq \theta\)

因此示性函数可化简为:

\[\prod_{i=1}^n I\{0\leq x_i\leq \theta\} = I\{0\leq x_{(n)}\leq \theta\} \cdot I\{x_{(1)}\geq 0\} \]

最终联合密度为:

\[f(x;\theta) = \frac{1}{\theta^n} I\{0\leq x_{(n)}\leq \theta\} I\{x_{(1)}\geq 0\} \]

步骤2:写出统计量\(T=X_{(n)}\)的密度函数

首先求总体\(X\sim R(0,\theta)\)的分布函数:

\[F_X(x) = \begin{cases} 0, & x<0 \\ \frac{x}{\theta}, & 0\leq x\leq \theta \\ 1, & x>\theta \end{cases} \]

根据最大次序统计量的分布性质,\(T=X_{(n)}\)的分布函数为:

\[F_T(t) = [F_X(t)]^n = \begin{cases} 0, & t<0 \\ \left(\frac{t}{\theta}\right)^n, & 0\leq t\leq \theta \\ 1, & t>\theta \end{cases} \]

对分布函数求导,得到\(T\)的概率密度函数:

\[f(t;\theta) = \frac{dF_T(t)}{dt} = \frac{n t^{n-1}}{\theta^n} I\{0\leq t\leq \theta\} \]

步骤3:代入条件密度公式并化简

根据引理2.1.4,条件密度为:

\[f(x|t;\theta) = \frac{f(x;\theta) \cdot I\{x:x_{(n)}=t\}}{f(t;\theta)} \]

其中示性函数\(I\{x:x_{(n)}=t\}\)表示:只有当样本最大值等于\(t\)时,\(T(x)=t\)成立,条件密度才有意义。

\(f(x;\theta)\)\(f(t;\theta)\)代入公式:

\[f(x|t;\theta) = \frac{\frac{1}{\theta^n} I\{0\leq x_{(n)}\leq \theta\} I\{x_{(1)}\geq 0\} \cdot I\{x_{(n)}=t\}}{\frac{n t^{n-1}}{\theta^n} I\{0\leq t\leq \theta\}} \]

对式子进行化简:

  1. 示性函数化简:因为\(I\{x_{(n)}=t\}\),所以\(x_{(n)}=t\),因此\(I\{0\leq x_{(n)}\leq \theta\}\)等价于\(I\{0\leq t\leq \theta\}\),与分母的示性函数完全一致,在密度非零的区域可直接抵消;
  2. 常数项化简:分子分母的\(\frac{1}{\theta^n}\)完全抵消,未知参数\(\theta\)被完全消去。

最终化简结果为:

\[f(x|t;\theta) = \frac{1}{n t^{n-1}} I\{x_{(1)}\geq 0\} I\{x_{(n)}=t\} \]

结论

化简后的条件密度中,完全不包含未知参数\(\theta\),仅与样本观测值、\(t\)\(n\)有关,因此根据充分统计量的定义,\(T=X_{(n)}\)\(\theta\)的充分统计量。


四、核心知识点与例题总结

例题类型 分布类型 待验证统计量 核心化简关键 充分性结论 核心注意事项
例2.1.1(1) 离散型泊松分布\(P(\lambda)\) \(T=\sum_{i=1}^n X_i\) 利用泊松可加性得到\(T\)的分布,约分消去\(\lambda\) 充分统计量 离散型用分布列计算,示性函数限定样本和为\(t\)
例2.1.1(2) 离散型泊松分布\(P(\lambda)\) \(T'=X_1+2X_2\) 找到反例,证明条件概率包含\(\lambda\) 非充分统计量 否定全称命题只需一个反例,无需验证所有情况
例2.1.2 连续型均匀分布\(R(0,\theta)\) \(T=X_{(n)}\)(样本最大值) 示性函数等价转换,约分消去\(\theta\) 充分统计量 支撑集与参数有关的分布,核心是示性函数的化简,最大次序统计量包含了\(\theta\)的全部信息

通用结论

  1. 定义法验证充分性的核心是消去未知参数,只要条件密度/分布列中不含未知参数,即可判定为充分统计量;
  2. 对于支撑集与参数有关的分布(如均匀分布、指数分布),示性函数的等价转换是化简的关键;
  3. 一一对应的函数变换不改变充分性:若\(T\)是充分统计量,\(g(T)\)\(T\)的一一对应函数,则\(g(T)\)也是充分统计量(如泊松分布中,样本均值\(\bar{X}=\frac{1}{n}\sum X_i\)也是充分统计量)。

posted on 2026-02-23 12:46  Indian_Mysore  阅读(1)  评论(0)    收藏  举报

导航