摘要: 区别于梯度下降逐渐求θ,正规方程提供了一种求θ的解析解法,不需要运行迭代算法,一次性求解θ的最优值 无需特征缩放(梯度下降需要) θ是多个值组成的一个向量时候。逐个队参数θj求J的偏导数,把它们全部置零,这样求出θ0-θn的值,这样就能得到最小化代价函数J的θ值 梯度下降和特征缩放对比(α,迭代次数 阅读全文
posted @ 2021-11-26 16:30 磕伴 阅读(150) 评论(0) 推荐(0)
摘要: 1.梯度下降(单,多元) 2.特征缩放 3.选择合适的α(学习率) 4.特征和多项式 梯度下降是很常用的算法,不仅用于线性回归,还广泛应用于机器学习的众多领域,可以最小化其他函数(任意函数) 不同的起始点有可能得到不同的局部最优解 下图Θ逐渐减小,直到最佳状态 可能会出现的问题 随着导数斜率越来越小 阅读全文
posted @ 2021-11-26 15:51 磕伴 阅读(73) 评论(0) 推荐(0)