贝叶斯推断
贝叶斯推断
贝叶斯推断是一种统计学方法,用来估计统计的某种性质。
他是贝叶斯定理的应用。英国数学家托马斯·贝叶斯在1763年发表的一篇文章中,首先提出了这个定理。
贝叶斯推断与其它统计学方法截然不同。它建立在主管判断的基础上,也就是说,你可以不需要客观证据,先估计一个值,然后根据实际结果不断修正。
贝叶斯推断需要大量的计算,因此历史上很长一段时间,无法得到广泛应用。只有计算机诞生以后,它才获得真正的重视。人们发现,许多统计量是无法事先进行客观判断的,而互联网时代出现的大型数据集,再加上告诉运算能力,为验证这些统计计量提供了方便,也为应用贝叶斯推断创造了条件。
1、贝叶斯定理
1)条件概率公式
P(A|B)=P(A∩B)/P(B)
→P(A∩B)=P(A|B)P(B)
→P(A∩B)=P(B|A)P(A)
→P(A|B)P(B)=P(B|A)P(A)
→P(A|B)=P(B|A)P(A) / P(B)
2)全概率公式
A 与 A`构成样本空间S,B为分布在样本空间上的一部分
P(B)=P(B∩A)+P(B∩A`)
→P(B)=P(B|A)P(A)+P(B|A`)P(A`)
→P(A|B)=P(B|A)P(A) / P(B|A)P(A)+P(B|A`)P(A`)
2、贝叶斯推断
由上面的贝叶斯定理可导出:
P(A|B)=P(A) * ( P(B|A) / P(B) )
P(A)称为 先验概率 (Prior probability)
在B事件发生之前,我们队A时间概率的一个判断。
P(A|B)称为 后验概率 (Posterior probability)
在B事件发生之后,我们队A事件概率的重新评估。
P(B|A) / P(B) 称为 可能性函数 (Likelyhood)
这是一个调整因子,使得预估概率更接近真实概率。
上述式子可以理解成:
后验概率 = 先验概率 * 调整因子
贝叶死推断的含义:
我们先预估一个“先验概率”,然后加入实验结果,看这个实验到底是增强了还是消弱了“先验概率”,由此得到更接近事实的“后验概率”。
如果可能性函数 Likelyhood > 1,意味着“先验概率”被增强,事件A的发生的可能性变大;如果 Likelyhood = 1,意味着B事件无助于判断A的可能性;如果 Likelyhood < 1,意味着“先验概率” 被削弱,事件A的可能性变小。
posted on 2016-08-24 15:24 VersionBeathon 阅读(494) 评论(0) 收藏 举报