贝叶斯学习的核心不是直接判断“它是A还是B”,而是计算“它是A的概率是多少,它是B的概率是多少”,然后选概率大的那个。Pci∣x∝Px∣ciPciPcixciPx∣cicixPci∣xxci结论: 贝叶斯分类器的训练过程,本质上就是在统计数据,估计先验概率和似然概率。 - 指南
第一阶段:贝叶斯分类器核心 (基于课件 P1-18)
1. 核心思想:通过概率来决策
贝叶斯学习的核心不是直接判断“它是A还是B”,而是计算“它是A的概率是多少,它是B的概率是多少”,然后选概率大的那个。
- 核心公式是 贝叶斯公式 :P(ci∣x)∝P(x∣ci)P(ci)P(c_i|x) \propto P(x|c_i)P(c_i)P(ci∣x)∝P(x∣ci)P(ci)我们需要理解这三个术语:
- P(ci)P(c_i)P(ci)- 先验概率 (Prior): 在没看具体特征xxx之前,我们认为它是类别cic_ici的概率(例如:在该季节,买到好瓜的概率本身有多大)。
- P(x∣ci)P(x|c_i)P(x∣ci)- 似然 (Likelihood) / 类条件概率: 如果它是类别cic_ici(比如好瓜),那么它长成特征xxx(比如“根蒂蜷缩”)的概率有多大。
- P(ci∣x)P(c_i|x)P(ci∣x)- 后验概率 (Posterior): 我们最终想求的——看到特征xxx后,它是类别cic_ici 的概率。
结论: 贝叶斯分类器的训练过程,本质上就是在统计数据,估计先验概率和似然概率 。
2. 朴素贝叶斯分类器 (Naive Bayes)
在实际应用中,样本xxx通常含有很多属性(比如色泽、根蒂、敲声等)。如果这些属性之间有关联,计算P(x∣c)P(x|c)P(x∣c)会非常复杂。
- 为了简化计算,引入了“朴素”假设:假设xxx的各维属性是相互独立的 。于是公式变成了连乘的形式 :P(c∣x)∝P(c)∏i=1dP(xi∣c)P(c|x) \propto P(c) \prod_{i=1}^{d} P(x_i|c)P(c∣x)∝P(c)i=1∏dP(xi∣c)
这意味着我们只需要单独统计“好瓜里有多少是青绿的”、“好瓜里有多少是蜷缩的”,然后把它们乘起来即可,不需要考虑“青绿且蜷缩”这种情况出现的频率,极大地降低了计算难度。
3. 实战案例:西瓜数据集 (课件 P12-17)
步骤 A:算先验概率P(c)P(c)P(c)训练集中共有17个瓜,好瓜8个,坏瓜9个。
- P(好瓜)=8/17≈0.471P(好瓜) = 8/17 \approx 0.471P(好瓜)=8/17≈0.471
- P(坏瓜)=9/17≈0.529P(坏瓜) = 9/17 \approx 0.529P(坏瓜)=9/17≈0.529
步骤 B:算离散属性的条件概率P(xi∣c)P(x_i|c)P(xi∣c)比如对于“色泽=青绿”:
- 好瓜中有3个是青绿:P(青绿∣好瓜)=3/8=0.375P(青

浙公网安备 33010602011771号