会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
JJJanepp
博客园
首页
新随笔
联系
管理
订阅
随笔分类 -
machine learning
【吴恩达机器学习】学习笔记——4多元线性回归
摘要:1 多元线性回归假设形式 多元线性回归算法的假设函数: 矩阵表示形式: 其中, 2 多元梯度下降 梯度下降算法: 将成本函数代入得: 3 特征缩放 为了使梯度下降算法更快的收敛,我们可以使用特征缩放将每一个特征值(元/属性)限定到[-1,1]的范围。经验值是不得大于[-3,3],不得小于[-1/3,
阅读全文
posted @
2018-03-10 17:27
JJJanepp
阅读(878)
评论(0)
推荐(0)
【吴恩达机器学习】学习笔记——2.7第一个学习算法=线性回归+梯度下降
摘要:梯度下降算法: 线性回归模型: 线性假设: 平方差成本函数: 将各个公式代入,对θ0、θ1分别求偏导得: 再将偏导数代入梯度下降算法,就可以实现寻找局部最优解的过程了。 线性回归的成本函数总是一个凸函数,故梯度下降算法执行后只有一个最小值。 “批”梯度下降:每一个步骤都使用所有的训练样本
阅读全文
posted @
2018-02-21 16:56
JJJanepp
阅读(296)
评论(0)
推荐(0)
【吴恩达机器学习】学习笔记——梯度下降
摘要:梯度下降算法能够帮助我们快速得到代价函数的最小值 算法思路: 以某一参数为起始点 寻找下一个参数使得代价函数的值减小,直到得到局部最小值 梯度下降算法: 重复下式直至收敛(收敛是指得到局部最低点的θj后,偏导数的值为零,θj不会再改变) 并且各参数θ0,...,θn必须同时更新,即所有的θj值全部都
阅读全文
posted @
2018-02-19 22:57
JJJanepp
阅读(457)
评论(0)
推荐(0)
【吴恩达机器学习】学习笔记——代价函数
摘要:单变量线性回归函数 hθ(x) = θ0 + θ1x 为了使线性回归函数对数据有较好的预测性,即y(i)到hθ(x(i)) 的距离都很小。 故构造代价函数,也称平均误差公式: 上式中m为训练集样本数量,用平方代替绝对值,再将所有样本点求和再求平均 最佳θ0,θ1满足下式:
阅读全文
posted @
2018-02-18 22:49
JJJanepp
阅读(407)
评论(0)
推荐(0)
【吴恩达机器学习】学习笔记——2.1单变量线性回归算法
摘要:1 回顾1.1 监督学习定义:给定正确答案的机器学习算法分类:(1)回归算法:预测连续值的输出,如房价的预测(2)分类算法:离散值的输出,如判断患病是否为某种癌症1.2 非监督学习定义:不给定数据的信息的情况下,分析数据之间的关系。聚类算法:将数据集中属性相似的数据点划分为一类。2 单变量线性回归算
阅读全文
posted @
2018-02-18 20:55
JJJanepp
阅读(310)
评论(0)
推荐(0)
【吴恩达机器学习】学习笔记——1.5无监督学习
摘要:1 无监督学习:在不知道数据点的含义的情况下,从一个数据集中找出数据点的结构关系。 2 聚类算法:相同属性的数据点会集中分布,聚集在一起,聚类算法将数据集分成不同的聚类。也就是说,机器不知道这些数据点具体是什么属性,到底是干什么的,但是可以将具有相同属性的数据点归为一类。 3 无监督学习的应用: 大
阅读全文
posted @
2018-02-13 16:36
JJJanepp
阅读(188)
评论(0)
推荐(0)
【吴恩达机器学习】学习笔记——1.4监督学习
摘要:监督学习:给定正确答案 1 回归:预测连续值的输出 2 分类:输出离散值 好的学习算法一般依据的特征(维度)是无穷的,而支持向量机这种算法,使用简洁的数学表达可以使电脑处理无限多的特征属性。
阅读全文
posted @
2018-02-12 22:57
JJJanepp
阅读(193)
评论(0)
推荐(0)
【吴恩达机器学习】学习笔记——1.3机器学习的定义
摘要:1 Arthur Samuel(1959):在没有明确编程的情况下使计算机获得学习的能力,该领域的研究为机器学习。 2 Tom Mitchell(1998):如果一个计算机程序解决任务T的性能达到了P,那么就说它从经验E中学习去解决任务T,并且达到了性能P。 比如,判定垃圾邮件中,手动标记某个邮件为
阅读全文
posted @
2018-02-12 22:13
JJJanepp
阅读(366)
评论(0)
推荐(0)
公告