微信扫一扫打赏支持

Python人工智能参考---最小二乘法

Python人工智能参考---最小二乘法

一、总结

一句话总结:

1、最小二乘法:目标函数=∑(观测值−理论值)^2
2、最小二乘法求导:对最小二乘法求导之后,就是求算术平均数了,所以可以初步理解为算术平均数使波动最小

 

 

1、最小二乘法的作用?

用于拟合曲线:找一些点适合的曲线,比如这些点对应的曲线是一次函数,还是多次函数等等

 

 

2、最小二乘法为什么选择平方?

因为一次的话有正有负,这样会抵消,不能明确的表示波动

 

 

3、最小二乘法和正态分布的关系?

A、最小二乘法给出的答案x=x平均=(x1+x2+x3+x4+x5)/5,那么x=平均时应该取得最大值,即:d L(x)/dx |x=x平均 =0。
B、解出这个微分方程就得到正态分布。

 

 

 

二、如何理解最小二乘法?

转自或参考:如何理解最小二乘法?
资料来源于网络.html

转自https://www.matongxue.com/madocs/818.html

最小平方法是十九世纪统计学的主题曲。 从许多方面来看, 它之于统计学就相当于十八世纪的微积分之于数学。

----乔治·斯蒂格勒的《The History of Statistics》

1 日用而不知

来看一个生活中的例子。比如说,有五把尺子:
马同学高等数学
用它们来分别测量一线段的长度,得到的数值分别为(颜色指不同的尺子):


\begin{array}{c|c}
 \qquad\qquad&\qquad长度\qquad\\\hline
 \color{red}红& 10.2 \\\hline
 \color{blue}蓝& 10.3 \\\hline
 \color{orange}橙&9.8\\\hline
 \color{Goldenrod}黄&9.9\\\hline
 \color{green}绿&9.8\\
\end{array}

之所以出现不同的值可能因为:
  • 不同厂家的尺子的生产精度不同
  • 尺子材质不同,热胀冷缩不一样
  • 测量的时候心情起伏不定
  • ......
总之就是有误差,这种情况下,一般取平均值来作为线段的长度:

\overline{x}=\frac{10.2+10.3+9.8+9.9+9.8}{5}=10

日常中就是这么使用的。可是作为很事'er的数学爱好者,自然要想下:
  • 这样做有道理吗?
  • 用调和平均数行不行?
  • 用中位数行不行?
  • 用几何平均数行不行?

2 最小二乘法

换一种思路来思考刚才的问题。
首先,把测试得到的值画在笛卡尔坐标系中,分别记作y_i
其次,把要猜测的线段长度的真实值用平行于横轴的直线来表示(因为是猜测的,所以用虚线来画),记作y
每个点都向y做垂线,垂线的长度就是|y-y_i|,也可以理解为测量值和真实值之间的误差:
因为误差是长度,还要取绝对值,计算起来麻烦,就干脆用平方来代表误差:

|y-y_i|\to (y-y_i)^2

总的误差的平方就是:


\epsilon=\sum (y-y_i)^2

因为y是猜测的,所以可以不断变换:
 
自然,总的误差\epsilon也是在不断变化的。
马同学高等数学
法国数学家,阿德里安-馬里·勒讓德(1752-1833,这个头像有点抽象)提出让总的误差的平方最小的y就是真值,这是基于,如果误差是随机的,应该围绕真值上下波动(关于这点可以看下“如何理解无偏估计?”)。
这就是最小二乘法,即:


\epsilon=\sum (y-y_i)^2最小\implies 真值y

这个猜想也蛮符合直觉的,来算一下。
这是一个二次函数,对其求导,导数为0的时候取得最小值:


\begin{aligned}
    \frac{d}{dy}\epsilon
        &=\frac{d}{dy}\sum (y-y_i)^2=2\sum (y-y_i)\\
        \quad\\
        &=2((y-y_1)+(y-y_2)+(y-y_3)+(y-y_4)+(y-y_5))=0
        \quad\\
\end{aligned}

进而:


    5y=y_1+y_2+y_3+y_4+y_5\implies y=\frac{y_1+y_2+y_3+y_4+y_5}{5}

正好是算术平均数。
原来算术平均数可以让误差最小啊,这下看来选用它显得讲道理了。
以下这种方法:


\epsilon=\sum (y-y_i)^2最小\implies 真值y

就是最小二乘法,所谓“二乘”就是平方的意思,台湾直接翻译为最小平方法。

3 推广

算术平均数只是最小二乘法的特例,适用范围比较狭窄。而最小二乘法用途就广泛。
比如温度与冰淇淋的销量:


\begin{array}{c|c}
 \qquad\qquad&\qquad销量\qquad\\\hline
 \color{red}{25^\circ}& 110 \\\hline
 \color{blue}{27^\circ}& 115 \\\hline
 \color{orange}{31^\circ}&155\\\hline
 \color{Goldenrod}{33^\circ}&160\\\hline
 \color{green}{35^\circ}&180\\
\end{array}

看上去像是某种线性关系:
可以假设这种线性关系为:

f(x)=ax+b

通过最小二乘法的思想:
上图的i,x,y分别为:


\begin{array}{c|c|c}
 \qquad i\qquad&\qquad x\qquad&\qquad y\qquad\\\hline
 1&25& 110 \\\hline
 2&27& 115 \\\hline
 3&31&155\\\hline
 4&33&160\\\hline
 5&35&180\\
\end{array}

总误差的平方为:


\epsilon=\sum (f(x_i)-y_i)^2=\sum (ax_i+b-y_i)^2

不同的a,b会导致不同的\epsilon,根据多元微积分的知识,当:


\begin{cases}
    \frac{\partial}{\partial a}\epsilon=2\sum (ax_i+b-y_i)x_i=0\\
    \quad\\
    \frac{\partial}{\partial b}\epsilon=2\sum (ax_i+b-y_i)=0
\end{cases}

这个时候\epsilon取最小值。
对于a,b而言,上述方程组为线性方程组,用之前的数据解出来:


\begin{cases}
    a\approx 7.2\\
    \quad\\
    b\approx -73
\end{cases}

也就是这根直线:
其实,还可以假设:

f(x)=ax^2+bx+c

在这个假设下,可以根据最小二乘法,算出a,b,c,得到下面这根红色的二次曲线:
同一组数据,选择不同的f(x),通过最小二乘法可以得到不一样的拟合曲线(出处):

 

 
不同的数据,更可以选择不同的f(x),通过最小二乘法可以得到不一样的拟合曲线:
马同学高等数学
f(x)也不能选择任意的函数,还是有一些讲究的,这里就不介绍了。

4 最小二乘法与正态分布

我们对勒让德的猜测,即最小二乘法,仍然抱有怀疑,万一这个猜测是错误的怎么办?
马同学高等数学
数学王子高斯(1777-1855)也像我们一样心存怀疑。
高斯换了一个思考框架,通过概率统计那一套来思考。
让我们回到最初测量线段长度的问题。高斯想,通过测量得到了这些值:


\begin{array}{c|c}
 \qquad\qquad&\qquad长度\qquad\\\hline
 \color{red}红& 10.2 \\\hline
 \color{blue}蓝& 10.3 \\\hline
 \color{orange}橙&9.8\\\hline
 \color{Goldenrod}黄&9.9\\\hline
 \color{green}绿&9.8\\
\end{array}

每次的测量值x_i都和线段长度的真值x之间存在一个误差:


\epsilon_i=x-x_i

这些误差最终会形成一个概率分布,只是现在不知道误差的概率分布是什么。假设概率密度函数为:

p(\epsilon)

再假设一个联合概率密度函数,这样方便把所有的测量数据利用起来:


\begin{aligned}
    L(x)
        &=p(\epsilon_1)p(\epsilon_2)\cdots p(\epsilon_5)\\
        \quad\\
        &=p(x-x_i)p(x-x_2)\cdots p(x-x_5)
\end{aligned}

讲到这里,有些同学可能已经看出来了上面似然函数了(关于似然函数以及马上要讲到的极大似然估计,可以参考“如何理解极大似然估计法?”)。
因为L(x)是关于x的函数,并且也是一个概率密度函数(下面分布图形是随便画的):
根据极大似然估计的思想,概率最大的最应该出现(既然都出现了,而我又不是“天选之才”,那么自然不会是发生了小概率事件),也就是应该取到下面这点:
当下面这个式子成立时,取得最大值:


\frac{d}{dx}L(x)=0

然后高斯想,最小二乘法给出的答案是:


x=\overline{x}=\frac{x_1+x_2+x_3+x_4+x_5}{5}

如果最小二乘法是对的,那么x=\overline{x}时应该取得最大值,即:


\frac{d}{dx}L(x)|_{x=\overline{x}}=0

好,现在可以来解这个微分方程了。最终得到:


p(\epsilon)={1 \over \sigma\sqrt{2\pi} }\,e^{- {{\epsilon^2 \over 2\sigma^2}}}

这是什么?这就是正态分布啊。
并且这还是一个充要条件:


x=\overline{x}\iff p(\epsilon)={1 \over \sigma\sqrt{2\pi} }\,e^{- {{\epsilon^2 \over 2\sigma^2}}}

也就是说,如果误差的分布是正态分布,那么最小二乘法得到的就是最有可能的值。
那么误差的分布是正态分布吗?
我们相信,误差是由于随机的、无数的、独立的、多个因素造成的,比如之前提到的:
  • 不同厂家的尺子的生产精度不同
  • 尺子材质不同,热胀冷缩不一样
  • 测量的时候心情起伏不定
  • ......
那么根据中心极限定理(参考“为什么正态分布如此常见?”),误差的分布就应该是正态分布。
因为高斯的努力,才真正奠定了最小二乘法的重要地位。
 
posted @ 2020-06-14 11:38  范仁义  阅读(428)  评论(0)    收藏  举报