12 2013 档案
摘要:局部线性加权回归假如数据分布在上面的曲线中,我们用一条直线肯定无法进行拟合。假如我们想知道坐标为x对应的值,那么我们就可以在两条红线中间进行线性拟合,就是假设两条竖直红线之间的部分数据是线性的。这就是局部线性回归。在传统的线性回归中,我们的最小化目标函数和输出是这样的:在局部线性回归中,我们的最小化目标函数和输出是这样的:注意,这里多了一个w,这个多加的参数非常有意思,当横轴上其他数据离我们要求的x的距离非常远的时候,w就接近于0.反之,w就接近于1.这样可以带来这种效果:里x越远的值,其分类错误越是被忽略(权值越小)。离x越近的值,其分类错误越被重视(权值越大)。这种算法每次预测一个值时,就
阅读全文
摘要:在machine learning的课程的第二讲中,才是真正的知识讲解。这节课主要讲了以下三个方面的东西:1.linear regression(线性回归) 2.Gradient descent(梯度下降)3.normal equations(正规方程)linear regression(线性回归) 什么是回归呢?简单的理解就是预测一个实数。线性回归就是要找到一个线性函数来拟合数据,然后根据这个线性函数来预测新的输入产生的值。我们可以看上面二维坐标中的线性方程,假如方程式是y = wx + b;那么在这个直线上的点都会使y等于0,不在直线上的点会使y大于或者等于0.大于0我们可以认为这个样本属
阅读全文
浙公网安备 33010602011771号