2.4 statistical decision theory

在讲完最小二乘(linear regression)和K近邻后,进入本节。

引入符号:

$X\in R^p$ X为维度为p的输入向量

$Y\in R$ Y为输出,实数

$P(X,Y)$ 为两者的联合概率分布

$f(X)$ 为预测函数,给定X,输出Y

a.使用squared error loss(L2)作为损失函数

$L(Y,f(X))={(Y-f(X))}^2$

EPE(excepted prediction error)为

$EPE(f)=E({(Y-f(X))}^2) \\ \ \ =\int \int {[y-f(x)]}^2 P(x,y) dxdy=\int [\int {[y-f(x)]}^2 P(y|x) dy]p(x)dx \\ \ \ =E_XE_{Y|X}({[Y-f(X)]}^2|X)$

最小化EPE,在每个点上f(x)需要满足:

$f(x)={argmin}_c E_{Y|X}({[Y-c]}^2|X=x)\\ \ \ ={argmin}_c \int [y^2-2yc+c^2]P(y|X=x)dy={argmin}_c E_{Y|X}(Y^2)-2cE_{Y|X}(Y)+c^2$

对上式的c求导,置为0:

$c=E(Y|X=x)$

所以,当squared error loss时,给定X,最好的预测为条件均值

K近邻实际给出的是(1)对条件均值的点估计(2)X=x被模拟为在某近似区域

linear regression则假设这些条件均值能用线性函数近似

b.使用L1作为损失函数

$L(Y,f(X))={|Y-f(X)|}$

$f(x)={argmin}_c E_{Y|X}({|Y-c|}|X=x)\\ \ \ ={argmin}_c \int_{-\infty}^c(y-c)P(y|X=x)dy+\int_c^{\infty}(c-y)P(y|X=x)dy\\ \ \ ={argmin}_c \int_{-\infty}^c yP(y|X=x)dy-c\int_{-\infty}^c P(y|X=x)dy+c\int_c^{\infty}P(y|X=x)dy-\int_c^{\infty}yP(y|X=x)dy$

对c求导,置为0:

第一部分:$cP(y=c|X=x)$

第二部分:$-\int_{-\infty}^c P(y|X=x)dy-cP(y=c|X=x)$

第三部分:$\int_{c}^{\infty}P(y|X=x)dy-cP(y=c|X=x)$

第四部分:$cP(y=c|X=x)$

有$\int_{c}^{\infty}P(y|X=x)dy=\int_{-\infty}^c P(y|X=x)dy$

所以,当为L1作为损失函数时,给定X,最好的预测为条件中値

posted @ 2015-07-28 10:58  porco  阅读(449)  评论(0编辑  收藏  举报