摘要: 在多变量的线性回归中主要讨论以下三个问题: 特征缩放 学习率α的选择策略 标准方程法 特征缩放 学习率α的选择策略 标准方程法 特征缩放 在Andrew Ng的机器学习里面,讲到使用梯度下降的时候应当进行特征缩放(Feature Scaling)。进行缩放后,多维特征将具有相近的尺度,这将帮助梯度下 阅读全文
posted @ 2019-03-17 16:08 Cutey_Thyme 阅读(873) 评论(0) 推荐(0)
摘要: 一般线性回归函数的假设函数为: 对应的损失函数为: (这里的1/2是为了后面求导计算方便)下图作为一个二维参数(,)组对应能量函数的可视化图: 下面我们来比较三种梯度下降法 批量梯度下降法BGD (Batch Gradient Descent) 我们的目的是要误差函数尽可能的小,即求解weights 阅读全文
posted @ 2019-03-17 12:47 Cutey_Thyme 阅读(703) 评论(0) 推荐(0)
摘要: 什么是机器学习? 机器学习:研究如何通过计算的手段,利用经验来改善系统自身的性能。 机器学习分为监督学习和非监督学习。 监督学习 (Supervised learning) 监督学习 (Supervised learning) 从给定的训练数据集中学习出一个函数(模型参数),当新的数据到来时,可以根 阅读全文
posted @ 2019-03-10 02:19 Cutey_Thyme 阅读(858) 评论(0) 推荐(1)