摘要: 机器学习第二集讲的是监督学习,也可以说是回归问题,m:#training example number,x:input variable,y:output variable,(x, y):training example,(xi,yi):第i个training example,举例一个房屋的一些特征与价格序列之间的回归问题,define x0=1,假设回归模型为:,定义J函数,也就是误差函数,回归模型的最优参数也就是根据样本不停训练得到误差函数最小,,对于n个特征数目,对应n个参数,每个参数的更新:,化简过程:,,了解了化简过程以后,下面就是2个梯度下降算法,第一个是批梯度下降:,意思是对于. 阅读全文
posted @ 2013-10-07 16:39 Ken yuan305 阅读(158) 评论(2) 推荐(0)
摘要: 将入职场,由于工作需要,要自学一些机器学习的内容,于是下载了stanford的公开课,今后没学完一集就对笔记进行理解,并且用自己的理解表达在博客里,希望不但可以和博友讨论,还可以使自己对理论以及应用更加的深刻,学习过程打算用matlab实现,该过程伴随matlab的自学,没办法,谁叫大学用到matlab不多,学习不够刻苦呐! 机器学习第一集的内容大概就是系统性的讲了下机器学习的几个分类:监督学习,按照我的理解也就是在已有样本的,并且样本有明确label的情况下学习,对新加入的测试样本进行分类,应用很广,比如邮件分类等等;无监督学习,比如聚类,就是对于一系列样本(没有给出label),进行自我. 阅读全文
posted @ 2013-10-07 14:42 Ken yuan305 阅读(123) 评论(0) 推荐(0)