摘要: 1.可以通过一些数学方程进行直接求解 近似于最小二乘法 2.矩阵不可逆 原因: (1)方阵中的两个维度间存在线性变换关系,导致方阵不满秩(奇异矩阵) (2) 特征数量相对于样本数量过大,导致产生的其次方程组不存在唯一解 (3) 解决办法 (1)删除某些特征 (2)使用正则化的方法,增加更多参数 3. 阅读全文
posted @ 2022-03-05 13:49 丢了木剑的温华 阅读(316) 评论(0) 推荐(0) 编辑
摘要: 1. 多参数模型 存在多个参数,模型更加复杂,在求梯度下降时需要对每个参数求偏导数,再同时更新参数 2, 特征缩放 不同的特征值的数值范围不同,如下图所示,将特征值可视化后,将形成一个细长的椭圆。而在梯度下降过程中,将可能需要花费长时间、并可能进行波动才能收敛。 为了解决这个问题,可以采用归一化的思 阅读全文
posted @ 2022-03-05 13:37 丢了木剑的温华 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 1.梯度下降 是一种常用的使代价函数最小化的算法,不仅用在线性回归中,也用到机器学习的很多方面,是一个非常经典的算法。 过程:一点点得改变参数,使代价函数值变小,直到找到最小值或局部最小值 2. 需要注意的点 (1)梯度下降法,不同的起点可能导致到达不同的局部最优处 (2)梯度下降法中,各个参数应该 阅读全文
posted @ 2022-03-05 13:10 丢了木剑的温华 阅读(92) 评论(0) 推荐(0) 编辑
摘要: 1.模型 模型可以理解为一个可以用来描述事件本身或规律的函数,如线性回归(一元线性函数等) 2.代价函数 这里有几个概念: 1、假设函数(Hypotheis) 即用来预测的函数,也可以说是函数模型 2. 参数(Parameters) 即假设函数中引入的参数,即模型参数,不同的参数对应着不同的假设函数 阅读全文
posted @ 2022-03-05 12:54 丢了木剑的温华 阅读(93) 评论(0) 推荐(0) 编辑