logistic回归和广义线性模型

logistic回归:

  logistic回归一般是用来解决二元分类问题,它是从贝努力分布转换而来的

  hθ(x) = g(z)=1/1+e-z ;z=θTx

  最大似然估计L(θ) = p(Y|X;θ)

           =∏p(y(i)|x(i);θ)

           =∏(hθ(x))y(i)(1-hθ(x))1-y(i)

     l(θ) = logL(θ)

           =Σy(i)loghθ(x(i))+(1-y(i))log(1-hθ(x(i)))

   θ的优化目的就是让最大似然估计最大,用梯度上升法求θ

  θjj+α∂l(θ)/∂θjj+α(y(i)-hθ(x(i)))x(i)j

  logistic回归用梯度上升法求得的θ的迭代公式看起来跟线性回归很像,但这跟线性回归是有本质区别的

  1.线性回归是由高斯分布推导而来,而logistic回归是由贝努力分布推导而来

  2.二种回归的最大似然估计是不一样的,只不过求完导后的结果看似相同

      3.二种回归hθ(x)是不同的

广义线性模型:

  之前已经写了线性回归和logistic回归,基本的形式都是先设定hθ(x),然后求最最大似然估计L(θ),然后求出l(θ)=logL(θ),然后用梯度上升法或其它方法求出θ,二种回归如此想你的原因就是在于它都都是广义线性模型里的一员。

  如果一个概念分布可以表示成p(y;η)=b(y)exp(ηTT(y)-a(η))时,那么这个概率分布可以称之为指数分布

  贝努力分布转换为指数分布:p(y;ø)=øy(1-ø)1-y

                   =exp(log(øy(1-ø)1-y))

                   =exp(ylogø+(1-y)log(1-ø))

                   =exp((log(ø/(1-ø)))y+log(1-ø))

  根据上面指数分布的公式可得出:

                 b(y)=1

                 η=logø/(1-ø);ø=1/(1+e)

                 T(y) = y

                 a(η)=-log(1-ø)

  高斯分布转换为指数(因为σ的取值对最后的结果没影响,所以设σ2=1):p(y;μ)=(1/2π)exp(-1/2(y-μ)2);2π上有根号

                                          =(1/2π)exp(-1/2y2).exp(μy-1/2μ2)

  根据上面指数分布的公式可得出:

                b(y)=(1/2π)exp(-1/2y2);2π上有根号

                                           η=μ

                                           T(y) = y

                                           a(η)=1/2μ2

  广义线性模型的三步是:
        1.将y|x;θ变换成以η为参数的指数分布的形式

          2.因为h(x)=E[y|x],所以能过第1步的变换可以得到E[y|x]与η的对应关系(对于logistic回归,期望值是ø,ø与η的关系是ø=1/(1+e);对于线性回归,期望值是μ,μ与η的关系是η=μ)

        3.设定η=θTx(如果η是一个向量值的话,那么ηiiTx)

posted @ 2013-01-06 00:15  frog_ww  阅读(3386)  评论(3编辑  收藏  举报