随笔分类 -  吴恩达机器学习笔记

摘要:4.1多维特征 多维特征长这个样子: 进一步的,我们为让公式简化,引入x0=1,这样的话,公式就变成下面这个样子: 进一步的简化,可以表示为: 4.2多变量梯度下降 首先,构建多变量线性回归的代价函数: 那么我们的目标就成功的转化为了:求取使代价函数最小的一系列参数。 那么多变量线性回归的批量梯度下 阅读全文
posted @ 2019-01-17 11:16 行走中的机器码 阅读(169) 评论(0) 推荐(0)
摘要:文本分类长度较大,对文本的智能解析是很有挑战的。 阅读全文
posted @ 2019-01-15 11:10 行走中的机器码 阅读(131) 评论(0) 推荐(0)
摘要:机器学习的两大基本问题:回归问题与分类问题。 什么是机器学习:根据已知的数据学习出一个数学函数使其能够有更强的预测能力。 学习路线:传统学习-深度学习-强化学习 阅读全文
posted @ 2019-01-15 11:09 行走中的机器码 阅读(254) 评论(0) 推荐(0)
摘要:监督学习是有标签的。监督学习分为两部分:分类和回归。分类针对的是离散的问题,回归针对的是连续的问题。 无监督学习是无标签的。 阅读全文
posted @ 2019-01-15 11:04 行走中的机器码 阅读(118) 评论(0) 推荐(0)
摘要:3.1矩阵和向量 要清楚什么是矩阵,什么是向量,以及什么是维度. 3.2加法和标量乘法 3.3矩阵向量乘法 3.4矩阵的乘法及其性质 矩阵的乘法不满足交换律,只满足结合律。 3.5矩阵的逆和转置 矩阵的逆: 矩阵的转置: 矩阵转置的基本性质: 阅读全文
posted @ 2019-01-15 10:59 行走中的机器码 阅读(152) 评论(0) 推荐(0)
摘要:一个有监督的房价训练模型如下所示: 单变量线性回归问题: 模型预测值与训练实际值之间的差距,就是建模误差。 一般常用的代价函数是平方误差函数,之所以提出误差的平方和,是因为误差平方代价函数对于大多数问题特别是回归问题,都是一个合理的选择。 常使用梯度下降作为求函数最小值的算法,开始时我们随机选择一个 阅读全文
posted @ 2019-01-15 10:54 行走中的机器码 阅读(97) 评论(0) 推荐(0)