机器学习之Bayes
基本思想
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。算法的基础是概率问题,分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。朴素贝叶斯假设是约束性很强的假设,假设特征条件独立,但朴素贝叶斯算法简单,快速,具有较小的出错率。
算法流程
假设某个体有n项特征(Feature),分别为F1、F2、...、Fn。现有m个类别(Category),分别为C1、C2、...、Cm。贝叶斯分类器就是计算出概率最大的那个分类,也就是求下面这个算式的最大值:
P(C|F1F2...Fn)
= P(F1F2...Fn|C)P(C) / P(F1F2...Fn)
由于 P(F1F2...Fn) 对于所有的类别都是相同的,可以省略,问题就变成了求
P(F1F2...Fn|C)P(C)
的最大值。
朴素贝叶斯分类器则是更进一步,假设所有特征都彼此独立,因此
P(F1F2...Fn|C)P(C)
= P(F1|C)P(F2|C) ... P(Fn|C)P(C)
贝叶斯定理之所以有用,是因为我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。
总结
Bayes模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,这给Bayes模型的正确分类带来了一定影响。在属性个数比较多或者属性之间相关性较大时,Bayes模型的分类效率比不上决策树模型。而在属性相关性较小时,Bayes模型的性能良好。
Bayes分类算法实现数字识别
/******************************************************************
* 函数名称:BayesErzhishuju()
* 函数类型:int
* 函数功能:基于二值数据的Bayes分类器 ,返回手写数字的类别
******************************************************************/
int Classification::BayesErzhishuju()
{
double Pw[10];//先验概率P(wj)=Nj/N
double P[10][25];//Pj(wi)wi:wi类,j:第j个特征
double PXw[10];//类条件概率P(X|wj)
double PwX[10];//后验概率P(wj|X)
int i,j;
//求先验概率
int n[10];//各类样品数
int N=0;//样品总数
for(i=0;i<10;i++)
{
//各数字类别样品数
n[i]=pattern[i].number;
N+=n[i];//样品总数
}
for(i=0;i<10;i++)
Pw[i]=(double)n[i]/(double)N;//先验概率
//求类条件概率
for(i=0;i<10;i++)
{
for(j=0;j<25;j++)
{
int numof1=0;//二值数据中1的个数
for(int k=0;k<pattern[i].number;k++)
numof1+=pattern[i].feature[k][j]>0.1?1:0;
P[i][j]=(double)(numof1+1)/(double)(n[i]+2);
}
}
for(i=0;i<10;i++)
{
double p=1;
for(int j=0;j<25;j++)
{
p*=(testsample[j]>0.1)?P[i][j]:1-P[i][j];
}
PXw[i]=p;
}
//求后验概率
double PX=0.0,maxP=0.0;
int number;
for(i=0;i<10;i++)
{
PX+=Pw[i]*PXw[i];
}
for(i=0;i<10;i++)
{
PwX[i]=Pw[i]*PXw[i]/PX;
if(PwX[i]>maxP)
{
maxP=PwX[i];
number=i;
}
}
return number;
}
/******************************************************************
* 函数名称:BayesLeasterror()
* 函数类型:int
* 函数功能:最小错误概率的Bayes分类器 ,返回手写数字的类别
******************************************************************/
int Classification::BayesLeasterror()
{
double X[25];//待测样品
double Xmeans[25];//样品的均值
double S[25][25];//协方差矩阵
double S_[25][25];//S的逆矩阵
double Pw;//先验概率
double hx[10];//判别函数
int i,j,k,n;
for(n=0;n<10;n++)//循环类别0~9
{
int num=pattern[n].number;//样品个数
//求样品平均值
for(i=0;i<25;i++)
Xmeans[i]=0.0;
for(k=0;k<num;k++)
{
for(i=0;i<25;i++)
Xmeans[i]+=pattern[n].feature[k][i]>0.10?1.0:0.0;
}
for(i=0;i<25;i++)
Xmeans[i]/=(double)num;
//求协方差矩阵
double mode[200][25];
for(i=0;i<num;i++)
for(j=0;j<25;j++)
mode[i][j]=pattern[n].feature[i][j]>0.10?1.0:0.0;
for(i=0;i<25;i++)
for(j=0;j<25;j++)
{
double s=0.0;
for(k=0;k<num;k++)
s=s+(mode[k][i]-Xmeans[i])*(mode[k][j]-Xmeans[j]);
s=s/(double)(num-1);
S[i][j]=s;
}
//求先验概率
int total=0;
for(i=0;i<10;i++)
total+=pattern[i].number;
Pw=(double)num/(double)total;
//求S的逆矩阵
for(i=0;i<25;i++)
for(j=0;j<25;j++)
S_[i][j]=S[i][j];
double(*p)[25]=S_;
brinv(*p,25);//S的逆矩阵
//求S的行列式
double (*pp)[25]=S;
double DetS;
DetS=bsdet(*pp,25);//S的行列式
//求判别函数
for(i=0;i<25;i++)
X[i]=testsample[i]>0.10?1.0:0.0;
for(i=0;i<25;i++)
X[i]-=Xmeans[i];
double t[25];
for(i=0;i<25;i++)
t[i]=0;
brmul(X,S_,25,t);
double t1=brmul(t,X,25);
double t2=log(Pw);
double t3=log(DetS+1);
hx[n]=-t1/2+t2-t3/2;
}
double maxval=hx[0];
int number=0;
//判别函数的最大值
for(n=1;n<10;n++)
{
if(hx[n]>maxval)
{
maxval=hx[n];
number=n;
}
}
return number;
}
/******************************************************************
* 函数名称:BayesLeastRisk(double loss[10][10])
* 函数类型:double*
* 参数说明:double loss[10][10]:损失
* 函数功能:最小风险的Bayes分类器 ,返回各类的风险值
******************************************************************/
double* Classification::BayesLeastRisk(double loss[10][10])
{
double X[25];//待测样品
double Xmeans[25];//样品的均值
double S[25][25];//协方差矩阵S
double S_[25][25];//S的逆矩阵
double P[10];//后验概率
double Pw;//先验概率
double hx[10];//判别函数
int i,j,k,n;
for(n=0;n<10;n++)//
{
int num=pattern[n].number;//样品个数
//求样品均值
for(i=0;i<25;i++)
Xmeans[i]=0.0;
for(k=0;k<num;k++)
{
for(i=0;i<25;i++)
Xmeans[i]+=pattern[n].feature[k][i]>0.2?1.0:0.0;
}
for(i=0;i<25;i++)
Xmeans[i]/=(double)num;
//求协方差矩阵
double mode[200][25];
for(i=0;i<num;i++)
for(j=0;j<25;j++)
mode[i][j]=pattern[n].feature[i][j]>0.2?1.0:0.0;
for(i=0;i<25;i++)
for(j=0;j<25;j++)
{
double s=0.0;
for(k=0;k<num;k++)
s=s+(mode[k][i]-Xmeans[i])*(mode[k][j]-Xmeans[j]);
s=s/(double)(num-1);
S[i][j]=s;
}
//求先验概率
int total=0;//样品总数
for(i=0;i<10;i++)
total+=pattern[i].number;
Pw=(double)num/(double)total;
//求S的逆矩阵
for(i=0;i<25;i++)
for(j=0;j<25;j++)
S_[i][j]=S[i][j];
double(*p)[25]=S_;
brinv(*p,25);//S的逆矩阵
//求S的行列式
double (*pp)[25]=S;
double DetS;
DetS=bsdet(*pp,25);//S的行列式
//求判别函数
for(i=0;i<25;i++)
X[i]=testsample[i]>0.2?1.0:0.0;
for(i=0;i<25;i++)
X[i]-=Xmeans[i];
double t[25];
for(i=0;i<25;i++)
t[i]=0;
brmul(X,S_,25,t);
double t1=brmul(t,X,25);
double t2=log(Pw);
double t3=log(DetS+1);
P[n]=-t1/2+t2-t3/2;
}
for(n=0;n<10;n++)
{
double t=0.0;
for(i=0;i<10;i++)
t+=loss[n][i]*P[i];
hx[n]=t;
}
return (double*)hx;
}
版权声明:
浙公网安备 33010602011771号