梯度下降法-2.线性回归中的梯度下降法

多元线性回归中使用梯度下降

在多元线性回归中,我们的目标是找到一组\(\theta=(\theta_0,\theta_1,\theta_2,\theta _0,...,\theta _n)\) 使得损失函数:

\[J = \sum_{i=1}^{m}(y^{(i)} - \hat{y}^{(i)})^2 \]

尽可能小。其中 $$\hat y^{(i)} = \theta _0x^{(i)}_0 + \theta _1x^{(i)}_1+ \theta _2x^{(i)}_2+...+\theta _{n}x{(i)}_n,x_0\equiv 1 $$

多元线性回归的导数$$\Lambda J = (\frac{\partial J}{\partial \theta _0},\frac{\partial J}{\partial \theta _1},\frac{\partial J}{\partial \theta _2},...,\frac{\partial J}{\partial \theta _n})$$
对各个\(\theta_i\)求偏导数:

求出的梯度的值应该和样本m无关,所以给整个式子除于m:

\[\Lambda J = \begin{bmatrix} \frac{\partial J}{\partial \theta _0} \\ \frac{\partial J}{\partial \theta _1} \\ \frac{\partial J}{\partial \theta _2} \\ ... \\ \frac{\partial J}{\partial \theta _n} \end{bmatrix} = \frac{2}{m}\begin{bmatrix} \sum(X^{(i)}_b\theta - y^{(i)}) \\ \sum(X^{(i)}_b\theta - y^{(i)}) \cdot X_1^{(i)}\\ \sum(X^{(i)}_b\theta - y^{(i)}) \cdot X_2^{(i)}\\ ...\\ \sum(X^{(i)}_b\theta - y^{(i)}) \cdot X_n^{(i)} \end{bmatrix}\]

所以相应的目标函数应该为:

\[J = \frac{1}{m}\sum_{i=1}^{m}(y^{(i)} - \hat{y}^{(i)})^2 = \frac{1}{m}\sum_{i=1}^{m}(y^{(i)} - X_b\cdot \theta)^2 \]

此式子也是真实值和预测值之间的均方误差 $MSE(y,\hat y) $

posted @ 2019-07-16 20:39  凌晨四点的洛杉矶  阅读(178)  评论(0编辑  收藏  举报