文章分类 -  machine learning

摘要:原文地址:http://www.cnblogs.com/kemaswill/p/3427422.html1. 简介 生成式模型(generative model)会对x和y的联合分布p(x,y)进行建模,然后通过贝叶斯公式来求得p(y|x), 最后选取使得p(y|x)最大的yi. 具体地, y∗=argminyip(yi|x)=argminyip(x|yi)p(yi)p(x)=argminyip(x|yi)p(yi)=argminyip(x,yi). 判别式模型(discriminative model)则会直接对p(y|x)进行建模. 关于二者之间的优劣有大量的讨论. SVM的发明者Vapn 阅读全文
posted @ 2013-11-20 10:53 叶叶笑了~~~ 阅读(161) 评论(0) 推荐(0)
摘要:原文地址:http://blog.csdn.net/marvin521/article/details/8980853参考文献: [1] emergence of simple-cell receptive field properties by learning a sparse code for nature images. 1996 [2] Sparse Coding with an Overcomplete BasisSet: A Strategy Employed by V1 ? 1997稀疏编码来源于神经科学,计算机科学和机器学习领域一般一开始就从稀疏编码算法讲起,上来就是找... 阅读全文
posted @ 2013-11-19 19:18 叶叶笑了~~~ 阅读(461) 评论(0) 推荐(0)
摘要:原文地址:http://www.cnblogs.com/liqizhou/archive/2012/05/11/2496155.html最近的一段时间一直在学习半监督学习算法,目前,国内的南京大学周志华老师是这方面的泰斗,写了很多这方面牛的文章,可以参考一下他的主页:http://cs.nju.edu.cn/zhouzh/。在国内的学术界周老师一直是我比较钦佩的人之一。下面贴出来的文章出自周老师之手,通俗易懂。受益匪浅。。1. 引言 在传统的监督学习中,学习器通过对大量有标记的(labeled)训练例进行学习,从而建立模型用于预测未见示例的标记。这里的“标记”(label)是指示例所对应... 阅读全文
posted @ 2013-09-22 16:19 叶叶笑了~~~ 阅读(208) 评论(0) 推荐(1)
摘要:原文地址:http://apex.sjtu.edu.cn/apex_wiki/Transfer Learning在传统的机器学习的框架下,学习的任务就是在给定充分训练数据的基础上来学习一个分类模型;然后利用这个学习到的 模型来对测试文档进行分类与预测。然而,我们看到机器学习算法在当前的Web挖掘研究中存在着一个关键的问题:一些新出现的领域中的大量训练数据非常难得 到。我们看到Web应用领域的发展非常快速。大量新的领域不断涌现,从传统的新闻,到网页,到图片,再到博客、播客等等。传统的机器学习需要对每个领域都 标定大量训练数据,这将会耗费大量的人力与物力。而没有大量的标注数据,会使得很多与学习相关 阅读全文
posted @ 2013-08-17 23:04 叶叶笑了~~~ 阅读(268) 评论(0) 推荐(0)
摘要:What are training set, validation set and test set? 这三个名词在机器学习领域的文章中极其常见,但很多人对他们的概念并不是特别清楚,尤其是后两个经常被人混用。Ripley, B.D(1996)在他的经典专著Pattern Recognition and Neural Networks中给出了这三个词的定义。Training set: A set of examples used for learning, which is to fit the parameters [i.e., weights] of the classifier.Val.. 阅读全文
posted @ 2013-08-17 17:35 叶叶笑了~~~ 阅读(294) 评论(0) 推荐(0)
摘要:浅谈深度学习(Deep Learning)的基本思想和方法 深度学习(Deep Learning),又叫Unsupervised Feature Learning或者Feature Learning,是目前非常热的一个研究主题。原文地址:http://blog.csdn.net/xianlingmao/article/details/8478562本文将主要介绍Deep Learning的基本思想和常用的方法。一. 什么是Deep Learning?实际生活中,人们为了解决一个问题,如对象的分类(对象可是是文档、图像等),首先必须做的事情是如何来表达一个对象,即必须抽取一些特征来表示一个对象, 阅读全文
posted @ 2013-07-13 10:36 叶叶笑了~~~ 阅读(148) 评论(0) 推荐(0)
摘要:原文地址:http://blog.csdn.net/abcjennifer/article/details/8572994很久没有写学习笔记了,年初先后忙考试,忙课程,改作业,回家刚安定下来,读了大神上学期给的paper,这几天折腾数学的感觉很好,就在这里和大家一起分享一下,希望能够有所收获。响应了Jeffrey的建议,强制自己把笔记做成英文的,可能给大家带来阅读上的不便,希望大家理解,多读英文的东西总没坏处的。这里感谢大神和我一起在本文手稿部分推了一些大牛的“easilyachieved”stuff... 本文尚不成熟,我也是初接触Robust PCA,希望各位能够拍砖提出宝贵意见。Robu 阅读全文
posted @ 2013-06-08 10:39 叶叶笑了~~~ 阅读(583) 评论(0) 推荐(0)
摘要:kernelPCA的基本推导原文地址:http://blog.sina.com.cn/s/blog_6b8e29550100s0z0.html要学习kernel PCA就要先从基本的理论入手: 通过上面两篇PCA的介绍我想对于基本的理论推导和几何物理意义应该比较清楚了。下面就根据别人的博客和文章的基础上简要的推导下kernel PCA以及PCA。应用上给出一个小程序。由于我不是数学专业出身所以对于深层次的的理论我现在不是很懂所以在这不做多的论述,如果需要我下面有推荐的文章。PCA本身也存在这一些显式和隐式的假设,这些对PCA更深入的讨论将在下面一篇中进行论述。 不过这里讲到Kernel PCA 阅读全文
posted @ 2013-06-08 10:35 叶叶笑了~~~ 阅读(565) 评论(0) 推荐(0)
摘要:机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com前言: 第二篇的文章中谈到,和部门老大一宁出去outing的时候,他给了我相当多的机器学习的建议,里面涉及到很多的算法的意义、学习方法等等。一宁上次给我提到,如果学习分类算法,最好从线性的入手,线性分类器最简单的就是LDA,它可以看做是简化版的SVM,如果想理解SVM这种分类器,那理解LDA就是很有必要的了。 谈到 阅读全文
posted @ 2013-06-08 10:30 叶叶笑了~~~ 阅读(137) 评论(0) 推荐(0)