随笔分类 -  machine learning

摘要:以前我们要预测的y是连续的,现在我们即将要讨论的分类算法中,y是离散的值。 先看一些分类的问题,像medical diagnosis——医学诊断,判断你是否生病;垃圾邮箱过滤器——判断一封邮件是不是垃圾邮箱。 也不是说这样的问题完全不能用线性回归的方式进行分类,但有很多时候,线性回归不能很好地进行分 阅读全文
posted @ 2017-05-30 20:07 汪神 阅读(207) 评论(0) 推荐(0)
摘要:抛出问题:为什么前面的线性回归要用最小二乘法?为什么要用这样的指标? 下面我们会给出一系列的概率假设,从而导出最小二乘法是一个很自然的算法: 先设 y^(i) = θTx^(i) + ε(i), 其中ε(i)叫做误差项 error term,这个可以看作是对未建模的效应的捕获,简单的说就是没有考虑到 阅读全文
posted @ 2017-05-30 15:29 汪神 阅读(2479) 评论(0) 推荐(0)
摘要:underfitting欠拟合: 特征值太少,曲线就一条直线。像h(θ)=θ0+θ1x1 overfitting过拟合: 特征值太多,像h(θ)=θ0+θ1x1+θ2x2^2+θ3x3^3+……曲线就会很曲折 之前我们讲的几个算法都是参数学习算法,parametric learning algori 阅读全文
posted @ 2017-05-25 20:13 汪神 阅读(448) 评论(0) 推荐(0)
摘要:前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点: (1)需要预先选定Learning rate; (2)需要多次iteration; (3)需要Feature Scaling; 因此可能会比较麻烦,这里介绍一种适用于Feature数量较少时使用的方法:Nor 阅读全文
posted @ 2017-05-08 22:00 汪神 阅读(383) 评论(0) 推荐(0)
摘要:先是几个英文: linear regression线性回归 gradient descent梯度下降 normal equations正规方程组 notation符号: m denote(指示) the number of training examples x denote the input v 阅读全文
posted @ 2017-05-08 20:21 汪神 阅读(5685) 评论(0) 推荐(0)
摘要:先抛出个例子,根据房子的面积来判断房子的价格。 什么是监督学习,大概了解就是有标准答案的训练,比如上面那个房子的问题,之前给的training examples都是一个x对应特定的y,就相当于有标准答案,这就是监督学习。supervised learning(我理解的) 无监督学习就是没有标准答案的 阅读全文
posted @ 2017-05-07 22:09 汪神 阅读(241) 评论(0) 推荐(0)
摘要:online resources: handouts(讲义)http://cs229.standford.edu 要用octave(matlab的代替版),matlab supervised learning algorithms-大概就是你给有标准答案的数据处理 unsupervised lear 阅读全文
posted @ 2017-04-25 17:44 汪神 阅读(141) 评论(0) 推荐(0)