摘要:
在多变量的线性回归中主要讨论以下三个问题: 特征缩放 学习率α的选择策略 标准方程法 特征缩放 学习率α的选择策略 标准方程法 特征缩放 在Andrew Ng的机器学习里面,讲到使用梯度下降的时候应当进行特征缩放(Feature Scaling)。进行缩放后,多维特征将具有相近的尺度,这将帮助梯度下 阅读全文
posted @ 2019-03-17 16:08
Cutey_Thyme
阅读(873)
评论(0)
推荐(0)
摘要:
一般线性回归函数的假设函数为: 对应的损失函数为: (这里的1/2是为了后面求导计算方便)下图作为一个二维参数(,)组对应能量函数的可视化图: 下面我们来比较三种梯度下降法 批量梯度下降法BGD (Batch Gradient Descent) 我们的目的是要误差函数尽可能的小,即求解weights 阅读全文
posted @ 2019-03-17 12:47
Cutey_Thyme
阅读(703)
评论(0)
推荐(0)