随笔分类 - 吴恩达机器学习笔记
摘要:4.1多维特征 多维特征长这个样子: 进一步的,我们为让公式简化,引入x0=1,这样的话,公式就变成下面这个样子: 进一步的简化,可以表示为: 4.2多变量梯度下降 首先,构建多变量线性回归的代价函数: 那么我们的目标就成功的转化为了:求取使代价函数最小的一系列参数。 那么多变量线性回归的批量梯度下
阅读全文
摘要:机器学习的两大基本问题:回归问题与分类问题。 什么是机器学习:根据已知的数据学习出一个数学函数使其能够有更强的预测能力。 学习路线:传统学习-深度学习-强化学习
阅读全文
摘要:监督学习是有标签的。监督学习分为两部分:分类和回归。分类针对的是离散的问题,回归针对的是连续的问题。 无监督学习是无标签的。
阅读全文
摘要:3.1矩阵和向量 要清楚什么是矩阵,什么是向量,以及什么是维度. 3.2加法和标量乘法 3.3矩阵向量乘法 3.4矩阵的乘法及其性质 矩阵的乘法不满足交换律,只满足结合律。 3.5矩阵的逆和转置 矩阵的逆: 矩阵的转置: 矩阵转置的基本性质:
阅读全文
摘要:一个有监督的房价训练模型如下所示: 单变量线性回归问题: 模型预测值与训练实际值之间的差距,就是建模误差。 一般常用的代价函数是平方误差函数,之所以提出误差的平方和,是因为误差平方代价函数对于大多数问题特别是回归问题,都是一个合理的选择。 常使用梯度下降作为求函数最小值的算法,开始时我们随机选择一个
阅读全文

浙公网安备 33010602011771号