3. Generlized Linear Models

Generlized Linear Models 广义线性模型

Linear Regression和Logistic Regression都是广义线性模型的特例

The exponential family自然指数分布族

当概率密度函数可以写成下面的形式,我们称属于自然指数分布族:

η 特性[自然]参数 natural parameter

T (y) 充分统计量 sufficient statistic 一般情况下 T (y) = y

a(η) 积累量母函数log partition function

e−a(η) 用来归一化

Bernoulli –> exponential family

反解,logistic函数是这么来的:

φ =1/(1 + e−η)

Gaussian -> exponential family(假设σ2= 1)

众多概率统计学过的分布都属于自然指数分布族

构造GLM的步骤

  1. 假设:
  2. 目标:给定x,预测T (y)。即 h(x) = E[y|x]
  3. η = θTx

第三步可以考虑为设计策略,η是输入变量的线性组合

  1. 使用极大似然估计法估计参数

扯点远的

Bayesian vs Frequentist

频率学派认为θ未知的,确定的变量(上帝知道)

估计θ的方法是,θ的值应该使得观察到的样本最大可能的出现(经验风险最小化)

贝叶斯学派观点见生成学习算法

下面举几个栗子

Linear Regression

  1. η = θTx

根据µ = η有:

  1. 极大似然估计

选择最小化

一气呵成

Logistic Regression

  1. y|x; θ Bernoulli(φ)
  2. η = θTx

根据φ =1/(1 + e−η)有:

  1. 极大似然估计

选择最大化ℓ(θ)

又一气呵成

构造GLM的难点

可以看出构造GLM难点在于第一步,对y|x; θ的分布建模。

如何确定y|x; θ的分布。。。。不知道。。。。

只能假定你已经y|x; θ的分布是某个指数族分布

最后一个栗子

Softmax Regression

k分类问题

y ∈{1 2, . . . , k}

一个比较合理的假设是对y|x; θ服从多项分布(multinomial distribution)

K个输出的概率记为φ1, . . . , φk,其中

定义如下

指示函数(indicator function) 1{·}

1{True} = 1, 1{False} = 0 比如 1{2 = 3} = 0

  1. y|x; θ 多项式分布

得到:

 

反解得:

定义:

叠加得:

上式称为softmax 函数

  1. 极大似然估计

选择最大化ℓ(θ)

这种处理多分类问题称为softmax regression

参考资料

posted @ 2014-05-21 17:42  noooop  阅读(291)  评论(0)    收藏  举报