摘要: 以下内容主要基于《Latent Dirichlet Allocation》,JMLR-2003一文,另加入了一些自己的理解,刚开始了解,有不对的还请各位指正。LDA-Latent Dirichlet AllocationJMLR-2003摘要:本文讨论的LDA是对于离散数据集,如文本集,的一种生成式... 阅读全文
posted @ 2014-05-07 15:42 prml 阅读(702) 评论(0) 推荐(0) 编辑
摘要: 此文为David M. Blei所写的《Introduction to Probabilistic Topic Models》的译文,供大家参考。摘要:概率主题模型是一系列旨在发现隐藏在大规模文档中的主题结构的算法。本文首先回顾了这一领域的主要思想,接着调研了当前的研究水平,最后展望某些有所希望的方... 阅读全文
posted @ 2014-05-05 21:44 prml 阅读(412) 评论(0) 推荐(0) 编辑
摘要: 1.Introduction and backgrounds作为本周的论文之一,这是一篇bag of features的基本文章之一,主要了解其中的基本思路,以及用到的基本技术,尽量使得细节更加清楚。文章中比较了两个基本的方法,分别是:BAYES和SVM。bag of keypoints的基本原理是... 阅读全文
posted @ 2014-05-05 21:35 prml 阅读(756) 评论(0) 推荐(0) 编辑
摘要: 今天下午折腾了一下Chrome下面的一个插件Vimium的使用,顿时发现该插件功能强大,能够满足减少鼠标的使用。至于为何要使用这个插件,源于我手腕上的伤一直没有好,使用鼠标的时候有轻微的疼痛。而且,由于我一般都是在SNS网站上停留,在人人和微博比较多,所以实际上发现每次看完一个一个页面都要点下一页的... 阅读全文
posted @ 2014-05-01 17:47 prml 阅读(178) 评论(0) 推荐(0) 编辑
摘要: 最近需要看的数学书:1 凸优化2 矩阵分析3 随机过程4 实变函数最近需要学习的专业课书籍1 bayes网络2 prml3 统计学习基础4 pgm 阅读全文
posted @ 2014-04-29 10:52 prml 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 本文的目的是记录一些在学习贝叶斯网络(Bayesian Networks)过程中遇到的基本问题。主要包括有向无环图(DAG),I-Maps,分解(Factorization),有向分割(d-Separation),最小I-Maps(Minimal I-Maps)等。主要参考Nir Friedman的... 阅读全文
posted @ 2014-04-29 10:04 prml 阅读(1470) 评论(0) 推荐(0) 编辑
摘要: 本文的主题是“贝叶斯网络”(Bayesian Network) 贝叶斯网络是一个典型的图模型,它对感兴趣变量(variables of interest)及变量之间的关系(relationships)进行建模。当将贝叶斯模型与统计技术一起使用时,这种图模型分析数据具有如下几个优势:(1) 贝... 阅读全文
posted @ 2014-04-29 10:03 prml 阅读(2037) 评论(0) 推荐(0) 编辑
摘要: 通过上一篇文章的介绍,我们已经基本了解了:Factor是组成PGM模型的基本要素;Factor之间的运算和推理是构建高维复杂PGM模型的基础。那么接下来,我们将重点理解,Factor之间的推理(Reasoning Patterns)。Factor之间的推理分为以下几类:1. Causal Reaso... 阅读全文
posted @ 2014-04-29 10:02 prml 阅读(775) 评论(0) 推荐(0) 编辑
摘要: 介绍朴素贝叶斯分类器的文章已经很多了。本文的目的是通过基本概念和微小实例的复述,巩固对于朴素贝叶斯分类器的理解。一 朴素贝叶斯分类器基础回顾 朴素贝叶斯分类器基于贝叶斯定义,特别适用于输入数据维数较高的情况。虽然朴素贝叶斯分类器很简单,但是它确经常比一些复杂的方法表现还好。 ... 阅读全文
posted @ 2014-04-29 10:00 prml 阅读(485) 评论(0) 推荐(0) 编辑
摘要: 废话:和上一次的文章确实隔了太久,希望趁暑期打酱油的时间,将之前学习的东西深入理解一下,同时尝试用Python写相关的机器学习代码。一 PGM模型的分类 通过上一篇文章的介绍,相信大家对PGM的定义和大致应用场景有了粗略的了解。那么接下来我们来深入了解下PGM。首先要介绍的是Probabilist... 阅读全文
posted @ 2014-04-29 09:59 prml 阅读(771) 评论(0) 推荐(0) 编辑