摘要: 这一节,我们将更直观得理解代价函数的作用。 首先,我们复习一下之前讲的内容。 和上一节不同,这节讨论的时候保留全部参数,即θ0和θ1。 现在我们有一个关于住房价格的训练集,让我们来做一些假设,假设hθ(x)=50+0.06x,画出直线如下图,显然这是一个不太好的假设,我们此时能算出J(50,0.06 阅读全文
posted @ 2020-03-28 11:27 不爱学习的Shirley 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 本节通过看一些例子直观地来理解代价函数是用来做什么的以及为什么我们要使用它。 为了更好理解代价函数的概念,我们使用简化的代价函数。 现在有一个训练集,训练集有三个样本。如下图所示。 我们先来给θ1赋值。当θ1=1时,我们可以得到一条直线,如下图所示。 我们可以计算J(1)=(1/2m)Σ(hθ(xi 阅读全文
posted @ 2020-03-28 09:25 不爱学习的Shirley 阅读(225) 评论(0) 推荐(0) 编辑
摘要: 在这节,我们将定义代价函数的概念,这有助于我们弄清楚怎么样将最有可能的直线与数据相拟合。 下面我们看一个例子。 在线性回归中,我们有这样一个训练集。根据上一节的定义,我们知道m=47,而我们的假设函数的函数形式为 hθ(x)=θ0+θ1x。这些θi被称为模型参数。而我们要做的就是如何选择这两个参数值 阅读全文
posted @ 2020-03-27 19:44 不爱学习的Shirley 阅读(251) 评论(0) 推荐(0) 编辑
摘要: 我们第一个学习算法是线性回归算法,在这节中,你会看到这个算法的概况,更重要的是你会了解整个监督学习过程。 下面我们来举一个例子,我们要根据不同房屋尺寸所售出的价格,画出我的数据集。 比方说,如果你朋友的房子是1250平方尺大小,你要告诉他这房子能卖多少钱。那么,你可以做的一件事就是构建一个模型,也许 阅读全文
posted @ 2020-03-27 16:19 不爱学习的Shirley 阅读(274) 评论(0) 推荐(0) 编辑
摘要: 本篇主要内容:无监督学习。 (2)无监督学习 在监督学习的时候,我们举的例子里,数据集中每条数据都标明是阴性或者是阳性。 在无监督学习中,我们所给出的数据都是没有任何标签的或者是都是有着相同标签的。 在这时,我们得到了一个数据集,但是我们并不知道要拿它来做什么,也不知道每个数据点究竟是什么。我们只是 阅读全文
posted @ 2020-03-27 12:21 不爱学习的Shirley 阅读(198) 评论(0) 推荐(0) 编辑
摘要: 本篇主要内容为:机器学习的定义、监督学习 什么是机器学习? Arthur Samuel将机器学习定义为:在没有明确设置的情况下,使计算机具有学习能力的研究领域。他编写了一个西洋棋程序,他虽然不是西洋棋高手,但是程序通过跟自己下上万盘棋以此来观察哪种布局容易赢,哪种布局容易输,以此来得出哪种布局会更好 阅读全文
posted @ 2020-03-26 20:23 不爱学习的Shirley 阅读(268) 评论(0) 推荐(0) 编辑
摘要: 现在广泛使用的比较多的推荐算法包括基于内容的推荐算法,基于协同过滤的推荐算法以及基于图形的推荐算法、基于融合的推荐算法等。下面讲的是基于协同过滤的推荐。 什么叫协同过滤? 协同过滤(Collaborative Filtering)字面上的解释就是在别人的帮助下来过滤筛选,协同过滤一般是在海量的用户中 阅读全文
posted @ 2020-03-23 11:40 不爱学习的Shirley 阅读(655) 评论(0) 推荐(0) 编辑
摘要: 现在广泛使用的比较多的推荐算法包括基于内容的推荐算法,基于协同过滤的推荐算法以及基于图形的推荐算法、基于融合的推荐算法等。下面讲的是基于内容推荐。 基于内容的推荐算法的原理大概分为3步: 为每个物品构建一个物品的属性资料。 为每个用户构建一个用户的喜好资料。 计算用户喜好资料与物品属性资料的相似度, 阅读全文
posted @ 2020-03-23 10:23 不爱学习的Shirley 阅读(620) 评论(0) 推荐(0) 编辑
摘要: 首先回顾一下纯P2P架构的特点: 没有服务器 端系统之间直接通信 端系统经常改变IP 间歇性连接 下面将学习两种不同的特别适合于P2P设计的应用。 文件分发,其中应用程序从单个源向大量的对等方分发一个文件。 分布在大型对等方社区中的数据库。 P2P文件分发 在P2P文件分发中,每个对等方能够重新分发 阅读全文
posted @ 2020-03-22 15:11 不爱学习的Shirley 阅读(979) 评论(0) 推荐(0) 编辑