摘要: 在这节中,我们将学习如何对数据进行运算操作。接下来,我们将会使用这些运算操作来实现我们的学习算法。 我现在快速地初始化一些变量。比如设置A为一个3x2的矩阵,B为一个3x2的矩阵,c为一个2x2的矩阵。 我想算两个矩阵的乘积,比如计算AxC,只需输入A*C,这是一个3x2矩阵乘以2x2矩阵,得到这样 阅读全文
posted @ 2020-04-06 21:43 不爱学习的Shirley 阅读(429) 评论(0) 推荐(0) 编辑
摘要: 在这节中将介绍如何在Ocatve中移动数据。如果你有些机器学习问题的数据,你如何将这些数据加载到Ocatve中?怎么把数据存入矩阵中?怎么对矩阵进行操作?如何保存计算结果?如何移动这些数据然后对它们进行操作? 首先我们让A = [ 1 2 ; 3 4 ; 5 6 ],我们会得到一个3x2矩阵,我们可 阅读全文
posted @ 2020-04-05 10:10 不爱学习的Shirley 阅读(302) 评论(0) 推荐(0) 编辑
摘要: 在这一章中我们将学习一些Octave编程语言。我们可以通过它迅速实现我们已经学过的或者后面要学的机器学习算法。 在这节中,我们将学习一系列的Octave的命令。 首先,我们先要打开Ocatve,接着我们输入一些简单的式子,可以看到我们很快就能得到结果。 除了这些,我们还可以做一些逻辑运算。例如,1= 阅读全文
posted @ 2020-04-04 11:48 不爱学习的Shirley 阅读(340) 评论(0) 推荐(0) 编辑
摘要: 上节中,我们讲了正规方程。在这节中,我们将学习正规方程以及不可逆性。本节的概念较为深入,所以可以将它看作是选学材料。 我们要讨论的问题如下: 当我们计算θ=(XTX)-1XTy的时候,万一矩阵XTX是不可逆的话怎么办? 如果懂一点线性代数的知识,我们就会知道有些矩阵可逆,而有些矩阵不可逆。我们称不可 阅读全文
posted @ 2020-04-03 15:29 不爱学习的Shirley 阅读(1523) 评论(0) 推荐(0) 编辑
摘要: 到目前为止,我们一直在使用梯度下降法来求解(通过一步步迭代来收敛到全局最小值)。相反地,正规方程提供的一种求解θ的解法。所以我们不再需要运行迭代算法,而是可以直接一次性求解θ的最优值。 事实上,正规方程也有优点,也有一些缺点。但在讲它的优缺点和如何使用正规方程之前,让我们先对这个算法有一个直观的理解 阅读全文
posted @ 2020-04-02 18:06 不爱学习的Shirley 阅读(594) 评论(0) 推荐(0) 编辑
摘要: 通过之前的学习,我们知道多变量的线性回归。在这节中,将介绍一些可供选择的特征以及如何得到不同的学习算法。当选择了合适的特征后,这些算法往往是非常有效的。另外还将介绍多项式回归。它使得我们能够使用线性回归的方法来拟合非常复杂的函数,甚至是非线性函数。 下面以预测房价为例。假设有两个特征,分别是房子临街 阅读全文
posted @ 2020-04-01 17:00 不爱学习的Shirley 阅读(393) 评论(0) 推荐(0) 编辑
摘要: 在这节中,我们将集中讨论学习率α。 这是梯度下降算法的更新规则。在这节中,我们将学习调试(Debugging)是什么以及一些小技巧来确保梯度下降法是在进行正常工作的。此外,我们还将学习如何选择学习率α。 梯度下降算法所做的事情就是为你找到一个θ值,并且希望它能够最小化代价函数J(θ)。因此,通常在梯 阅读全文
posted @ 2020-03-31 18:09 不爱学习的Shirley 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 在本节和下一节中,我们将介绍一下梯度下降运中的实用技巧。本节主要介绍一个称为特征缩放的方法。 这个方法如下:如果你有一个机器学习问题,这个问题有多个特征。如果你能确保这些特征都处在一个相似的范围(即不同特征的取值在相近的范围内),那么这样梯度下降法就能更快地收敛。具体来说,假如现在有一个具有两个特征 阅读全文
posted @ 2020-03-31 17:06 不爱学习的Shirley 阅读(247) 评论(0) 推荐(0) 编辑
摘要: 在这节中,我们将介绍如何设定该假设的参数,我们还会讲如何使用梯度下降法来处理多元线性回归。 首先,我们回顾一下上节的知识点。 假设形式:hθ(x)=θTX=θ0x0+θ1x1+θ2x2+θ3x3+……+θnxn。(x0=1) 参数:θ0,θ1,θ2,……,θn。我们也可以把它想象成一个n+1维向量。 阅读全文
posted @ 2020-03-31 16:00 不爱学习的Shirley 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 在这节中,我们将开始讨论一种新的线性回归的版本。这是一种更为有效的形式,这种形式适用于多个变量或者多特征量的情况。 在我们之前的学习中,我们只有一个单一特征变量x(如下面例子中的房屋面积),我们希望用这个特征量来预测y(如下面例子中的房屋价格)。我们的假设就为hθ(x)=θ0+θ1x。 但是,我们在 阅读全文
posted @ 2020-03-31 14:45 不爱学习的Shirley 阅读(259) 评论(0) 推荐(0) 编辑