随笔分类 -  machine learning

摘要:1 多元线性回归假设形式 多元线性回归算法的假设函数: 矩阵表示形式: 其中, 2 多元梯度下降 梯度下降算法: 将成本函数代入得: 3 特征缩放 为了使梯度下降算法更快的收敛,我们可以使用特征缩放将每一个特征值(元/属性)限定到[-1,1]的范围。经验值是不得大于[-3,3],不得小于[-1/3, 阅读全文
posted @ 2018-03-10 17:27 JJJanepp 阅读(878) 评论(0) 推荐(0)
摘要:梯度下降算法: 线性回归模型: 线性假设: 平方差成本函数: 将各个公式代入,对θ0、θ1分别求偏导得: 再将偏导数代入梯度下降算法,就可以实现寻找局部最优解的过程了。 线性回归的成本函数总是一个凸函数,故梯度下降算法执行后只有一个最小值。 “批”梯度下降:每一个步骤都使用所有的训练样本 阅读全文
posted @ 2018-02-21 16:56 JJJanepp 阅读(296) 评论(0) 推荐(0)
摘要:梯度下降算法能够帮助我们快速得到代价函数的最小值 算法思路: 以某一参数为起始点 寻找下一个参数使得代价函数的值减小,直到得到局部最小值 梯度下降算法: 重复下式直至收敛(收敛是指得到局部最低点的θj后,偏导数的值为零,θj不会再改变) 并且各参数θ0,...,θn必须同时更新,即所有的θj值全部都 阅读全文
posted @ 2018-02-19 22:57 JJJanepp 阅读(457) 评论(0) 推荐(0)
摘要:单变量线性回归函数 hθ(x) = θ0 + θ1x 为了使线性回归函数对数据有较好的预测性,即y(i)到hθ(x(i)) 的距离都很小。 故构造代价函数,也称平均误差公式: 上式中m为训练集样本数量,用平方代替绝对值,再将所有样本点求和再求平均 最佳θ0,θ1满足下式: 阅读全文
posted @ 2018-02-18 22:49 JJJanepp 阅读(407) 评论(0) 推荐(0)
摘要:1 回顾1.1 监督学习定义:给定正确答案的机器学习算法分类:(1)回归算法:预测连续值的输出,如房价的预测(2)分类算法:离散值的输出,如判断患病是否为某种癌症1.2 非监督学习定义:不给定数据的信息的情况下,分析数据之间的关系。聚类算法:将数据集中属性相似的数据点划分为一类。2 单变量线性回归算 阅读全文
posted @ 2018-02-18 20:55 JJJanepp 阅读(310) 评论(0) 推荐(0)
摘要:1 无监督学习:在不知道数据点的含义的情况下,从一个数据集中找出数据点的结构关系。 2 聚类算法:相同属性的数据点会集中分布,聚集在一起,聚类算法将数据集分成不同的聚类。也就是说,机器不知道这些数据点具体是什么属性,到底是干什么的,但是可以将具有相同属性的数据点归为一类。 3 无监督学习的应用: 大 阅读全文
posted @ 2018-02-13 16:36 JJJanepp 阅读(188) 评论(0) 推荐(0)
摘要:监督学习:给定正确答案 1 回归:预测连续值的输出 2 分类:输出离散值 好的学习算法一般依据的特征(维度)是无穷的,而支持向量机这种算法,使用简洁的数学表达可以使电脑处理无限多的特征属性。 阅读全文
posted @ 2018-02-12 22:57 JJJanepp 阅读(193) 评论(0) 推荐(0)
摘要:1 Arthur Samuel(1959):在没有明确编程的情况下使计算机获得学习的能力,该领域的研究为机器学习。 2 Tom Mitchell(1998):如果一个计算机程序解决任务T的性能达到了P,那么就说它从经验E中学习去解决任务T,并且达到了性能P。 比如,判定垃圾邮件中,手动标记某个邮件为 阅读全文
posted @ 2018-02-12 22:13 JJJanepp 阅读(366) 评论(0) 推荐(0)