代价函数以及梯度下降法概述

代价函数

假设训练集是(1,1),(2,2),(3,3)

首先假如给定的拟合函数斜率为不同值,计算在x=1,2,3点处不同的值与实际训练集的值的差的平方,再除以2m(训练集个数)得到的就是代价函数在该斜率点的值

 

 

 

对应的代价函数如下:

 

最小值是1,就是目标函数T函数

这是简化的代价函数,线性拟合函数是正比例函数,而非一般的一次函数

 

 

 

 

因为拟合函数具有两个参数,所以代价函数的图像如上图

 

寻找最佳目标函数的方法:

梯度下降

给定初始化的参数值,q0,q1

寻找梯度最小的点,沿着接着最小的点

得到梯度为0点,即为局部最小值点

 

 

 

 

 

:=表示赋值,赋值运算符

 

赋值更新参数时候要做到同步更新

 

 

 

其中的参数有用到

α是学习率,决定了梯度变化的快慢,即为

 

 

 

在每一点处都对横坐标进行更新,如果其斜率为正就往左移,斜率为负就往右移,最后得到的就是改函数最小值即斜率最低点

 

 

 

如果α太小,需要很多步才能达到全局最低点

如果α太大,会跨过最低点,最后很难达到最低点

 

 

越靠近最低点,梯度下降会因为斜率变小,自动变慢,直至达到最适合的点,也就是局部最优点

 

线性回归的梯度下降

 

 

 

代价函数带入梯度下降求导数

 

 

 

两个参数。求;两次偏导

posted @ 2022-06-29 17:14  凋零_(  阅读(88)  评论(0编辑  收藏  举报